Nothing Special   »   [go: up one dir, main page]

FR3127297A1 - HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING - Google Patents

HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING Download PDF

Info

Publication number
FR3127297A1
FR3127297A1 FR2205175A FR2205175A FR3127297A1 FR 3127297 A1 FR3127297 A1 FR 3127297A1 FR 2205175 A FR2205175 A FR 2205175A FR 2205175 A FR2205175 A FR 2205175A FR 3127297 A1 FR3127297 A1 FR 3127297A1
Authority
FR
France
Prior art keywords
processing
cameras
level
optronic
bandwidth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2205175A
Other languages
French (fr)
Inventor
Patrice Menard
Pascal Dupuy
Pierre Prieux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lerity
Original Assignee
Lerity
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lerity filed Critical Lerity
Priority to PCT/FR2022/051751 priority Critical patent/WO2023041884A1/en
Publication of FR3127297A1 publication Critical patent/FR3127297A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/16Optical objectives specially designed for the purposes specified below for use in conjunction with image converters or intensifiers, or for use with projectors, e.g. objectives for projection TV
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Abstract

SYSTÈME OPTRONIQUE HÉMISPHÉRIQUE DE DÉTECTION ET LOCALISATION DE MENACES À TRAITEMENT TEMPS RÉEL Le système optronique hémisphérique de détection et localisation de menaces comprend un module optronique et des moyens de traitement, le module optronique ayant une pluralité de caméras disposées de façon à couvrir un angle solide de 2.pi stéradians. Conformément à l’invention, les caméras sont de type identique et sont disposées de manière régulière et symétrique et les moyens de traitement sont de type temps réel et sont agencés de façon à assurer un premier niveau de traitement à large bande passante et un deuxième niveau de traitement à bande passante réduite, le premier niveau comprenant un traitement en parallèle des flux vidéo des caméras assurant des corrections géométriques, photométriques et une production d’informations de menace détectée, et le deuxième niveau comprenant un traitement de fusion et de filtrage des informations de menace détectée issues du premier niveau et une production d’informations de menace confirmée comprenant les coordonnées angulaires dans un repère géographique local de chaque menace confirmée.HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING The hemispherical optronic system for detection and location of threats comprises an optronic module and processing means, the optronic module having a plurality of cameras arranged so as to cover a solid angle of 2.pi steradians. According to the invention, the cameras are of identical type and are arranged in a regular and symmetrical manner and the processing means are of the real-time type and are arranged in such a way as to ensure a first level of wide-bandwidth processing and a second level processing at reduced bandwidth, the first level comprising parallel processing of the video streams from the cameras ensuring geometric and photometric corrections and production of detected threat information, and the second level comprising processing of fusion and filtering of the information of detected threat from the first level and a production of confirmed threat information comprising the angular coordinates in a local geographical reference of each confirmed threat.

Description

SYSTÈME OPTRONIQUE HÉMISPHÉRIQUE DE DÉTECTION ET LOCALISATION DE MENACES À TRAITEMENT TEMPS RÉELHEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING

L’invention se situe de manière générale dans le domaine des technologies de la défense et de la sécurité, et concerne la détection et la localisation de cibles ou menaces. Plus particulièrement, l’invention se rapporte à un système optronique hémisphérique de détection et localisation de menaces, notamment pour la lutte anti-drone, à savoir, les drones pilotés ou autonomes, seuls ou en nuées.The invention generally falls within the field of defense and security technologies, and relates to the detection and location of targets or threats. More particularly, the invention relates to a hemispherical optronic system for detecting and locating threats, in particular for the fight against drones, namely, piloted or autonomous drones, alone or in clouds.

Dans l’état de la technique, plusieurs technologies ont été proposées pour détecter et localiser des menaces de type drone. De manière générale, ces technologies sont de type radioélectrique ou optronique. Elles comportent des radars de type passif ou actif et des systèmes optroniques de type mobile ou fixe.In the state of the art, several technologies have been proposed to detect and locate drone type threats. In general, these technologies are of the radioelectric or optronic type. They include passive or active type radars and mobile or fixed type optronic systems.

Les technologies radars existantes offrent les avantages d’une portée d’utilisation intéressante de plusieurs kilomètres et d’un traitement temps réel, mais procurent une faible précision de localisation (de l’ordre de 100 mrd – milliradian) et ne sont pas adaptées pour la couverture d’un demi-espace, c’est-à-dire, pour la couverture d’un angle solide de 2.pi stéradians. Pour améliorer la précision de localisation d’un système radar, il est connu de lui associer un système optronique qui apporte la précision requise. De plus, les technologies radars sont peu adaptées à un usage urbain du fait des taux élevés de fausses alarmes générées par l’environnement et de l’acceptabilité de la technologie active.Existing radar technologies offer the advantages of an interesting operating range of several kilometers and real-time processing, but provide low location precision (of the order of 100 mrd – milliradian) and are not suitable for the coverage of half a space, that is, for the coverage of a solid angle of 2.pi steradians. To improve the location accuracy of a radar system, it is known to associate it with an optronic system which provides the required accuracy. In addition, radar technologies are not very suitable for urban use due to the high rates of false alarms generated by the environment and the acceptability of the active technology.

Un système optronique de type mobile comprend généralement un ou plusieurs capteurs d’image montés sur une tourelle mobile. Un tel système optronique est compatible avec une exigence de traitement temps réel et est capable de fournir une précision de localisation élevée, de l’ordre de 0,3 mrd. Cependant, ce type de système optronique n’est fonctionnel que dans un angle solide restreint, ce qui le disqualifie lorsque la couverture en temps réel d’un demi-espace est requise.A mobile-type optronic system generally comprises one or more image sensors mounted on a mobile turret. Such an optronic system is compatible with a real-time processing requirement and is capable of providing high location accuracy, of the order of 0.3 mrd. However, this type of optronic system is only functional in a restricted solid angle, which disqualifies it when the real-time coverage of half a space is required.

Des systèmes optroniques de type fixe ont été proposé pour la couverture d’un demi-espace. Les systèmes optroniques fixes connus se répartissent en trois catégories, à savoir, les systèmes mono-capteur, les systèmes multi-capteurs civils ou industriels et les systèmes multi-capteurs militaires.Fixed-type optronic systems have been proposed for half-space coverage. Known fixed optronic systems fall into three categories, namely, single-sensor systems, civil or industrial multi-sensor systems and military multi-sensor systems.

Les systèmes mono-capteur susmentionnés comprennent un seul capteur couplé à une optique anamorphique. Les technologies disponibles de capteur (« CCD » ou « CMOS ») ne permettent pas à cette architecture d’atteindre des performances élevées en termes de précision de localisation et de portée d’utilisation. Ces systèmes, essentiellement destinés au marché de la surveillance industrielle ou privée, ont pour fonction principale de délivrer une représentation vidéo d'un demi-espace, leurs performances de précision de localisation et de portée d’utilisation se limitant respectivement à 50 mrd environ et à 150 mètres au maximum.The aforementioned mono-sensor systems include a single sensor coupled to anamorphic optics. The available sensor technologies (“CCD” or “CMOS”) do not allow this architecture to achieve high performance in terms of location accuracy and range of use. These systems, essentially intended for the industrial or private surveillance market, have the main function of delivering a video representation of half a space, their performance in terms of location accuracy and range of use being limited respectively to approximately 50 mrd and at a maximum of 150 meters.

Concernant les systèmes multi-capteurs civils ou industriels susmentionnés, ceux-ci ont également pour fonction principale de délivrer une représentation vidéo d'un demi-espace et regroupent essentiellement des caméras destinées au loisir et à la surveillance. Cette technologie procure une représentation vidéo d’un demi-espace par fusion des données d’image de plusieurs sous-espaces et est incompatible avec un traitement temps réel. Une fonction de détection et localisation est disponible dans certains systèmes. La portée d'utilisation obtenue avec cette technologie est au maximum de 200 à 300 mètres.Concerning the civil or industrial multi-sensor systems mentioned above, these also have the main function of delivering a video representation of a half-space and essentially group together cameras intended for leisure and surveillance. This technology provides a video representation of a half-space by merging image data from several sub-spaces and is incompatible with real-time processing. A detect and locate feature is available in some systems. The operating range obtained with this technology is a maximum of 200 to 300 meters.

Ainsi, la société chinoise INSTA360 INNOVATION TECH CO LTD, titulaire de la demande de brevet CN112837207A, commercialise une caméra destinée au loisir sous la marque INSTA360® PRO 2®. Cette caméra comporte quatre ou six capteurs d’image associés à des lentilles de type « fisheye ». Les capteurs sont tous agencés dans une même tranche de sphère, en étant disposés en cercle de façon régulière, avec un même écart angulaire entre deux capteurs voisins.Thus, the Chinese company INSTA360 INNOVATION TECH CO LTD, holder of patent application CN112837207A, markets a camera intended for leisure under the INSTA360® PRO 2® brand. This camera has four or six image sensors associated with “fisheye” type lenses. The sensors are all arranged in the same slice of sphere, being arranged in a circle in a regular manner, with the same angular difference between two neighboring sensors.

Par ailleurs, la société coréenne HANWHA TECHWIN CO LTD, titulaire de la demande de brevet coréen KR20210022973A, commercialise une caméra de surveillance de type « dôme » sous la marque WISENET® PNM-9080VQ®. La caméra comporte un capteur d’image central et trois capteurs d’image périphériques orientables manuellement. Les capteurs périphériques sont régulièrement répartis en cercle, avec un écart angulaire de 120° entre deux capteurs voisins, et sont tous agencés dans une même tranche de sphère. Cette tranche de sphère est perpendiculaire à un axe central de la caméra selon lequel est aligné le capteur central. Outre les inconvénients généraux susmentionnés pour cette catégorie de systèmes multi-capteurs, la mobilité angulaire des capteurs périphériques dans cette caméra introduit un facteur d’incertitude de positionnement qui ne peut qu’affecter la précision de localisation.Furthermore, the Korean company HANWHA TECHWIN CO LTD, holder of Korean patent application KR20210022973A, markets a "dome" type surveillance camera under the WISENET® PNM-9080VQ® brand. The camera has a central image sensor and three manually adjustable peripheral image sensors. The peripheral sensors are regularly distributed in a circle, with an angular difference of 120° between two neighboring sensors, and are all arranged in the same slice of sphere. This slice of sphere is perpendicular to a central axis of the camera along which the central sensor is aligned. Besides the general disadvantages mentioned above for this category of multi-sensor systems, the angular mobility of the peripheral sensors in this camera introduces a factor of positioning uncertainty which can only affect the localization accuracy.

Concernant les systèmes multi-capteurs militaires susmentionnés, ceux-ci sont conçus pour fonctionner dans le spectre infra-rouge et ne sont pas adaptés pour détecter des menaces sans signature thermique. La capacité de ces systèmes à détecter avec précision des menaces de petite taille avec une faible signature thermique, comme des drones aériens à propulsion électrique, est donc limitée. Les systèmes ARTEMIS® et SUMIT360® commercialisés respectivement par les groupes industriels THALES® et FLIR® font partie de cette catégorie de systèmes multi-capteurs.Regarding the aforementioned military multi-sensor systems, these are designed to operate in the infrared spectrum and are not suitable for detecting threats without thermal signatures. The ability of these systems to accurately detect small threats with a low heat signature, such as electrically powered aerial drones, is therefore limited. The ARTEMIS® and SUMIT360® systems marketed respectively by the industrial groups THALES® and FLIR® belong to this category of multi-sensor systems.

Il existe donc un besoin pour un système optronique hémisphérique de détection et localisation de menaces, notamment pour la lutte anti-drone, ne présentant pas les inconvénients susmentionnés de l’état de la technique et qui soit apte à assurer une fonction de détection et de localisation des menaces sur 2.pi stéradians, en temps réel avec une haute précision.There is therefore a need for a hemispherical optronic system for detecting and locating threats, in particular for the fight against drones, which does not have the aforementioned drawbacks of the state of the art and which is capable of providing a detection and localization of threats over 2.pi steradians, in real time with high precision.

L’invention concerne un système optronique hémisphérique de détection et localisation de menaces comprenant un module optronique et des moyens de traitement, le module optronique ayant une pluralité de caméras disposées de façon à couvrir un angle solide de 2.pi stéradians. Conformément à l’invention, les caméras sont de type identique et sont disposées de manière régulière et symétrique et les moyens de traitement assurent un traitement en temps réel et sont agencés de façon à assurer un premier niveau de traitement à large bande passante et un deuxième niveau de traitement à bande passante réduite, le premier niveau comprenant un traitement en parallèle des flux vidéo des caméras assurant des corrections géométriques, photométriques et une production d’informations de menace détectée, et le deuxième niveau comprenant un traitement de fusion et de filtrage des informations de menace détectée issues du premier niveau et une production d’informations de menace confirmée comprenant les coordonnées angulaires dans un repère géographique local de chaque menace confirmée.The invention relates to a hemispherical optronic system for detecting and locating threats comprising an optronic module and processing means, the optronic module having a plurality of cameras arranged so as to cover a solid angle of 2.pi steradians. According to the invention, the cameras are of identical type and are arranged in a regular and symmetrical manner and the processing means provide real-time processing and are arranged so as to provide a first level of wide-bandwidth processing and a second low-bandwidth processing level, the first level comprising parallel processing of the video streams from the cameras ensuring geometric and photometric corrections and production of detected threat information, and the second level comprising processing of fusion and filtering of the detected threat information from the first level and a production of confirmed threat information comprising the angular coordinates in a local geographical reference of each confirmed threat.

Selon une caractéristique particulière, les moyens de traitement temps réel comprennent des modules de traitement de signal de proximité intégrés dans les caméras et une unité centrale de traitement numérique, les modules de traitement de signal de proximité assurant au moins partiellement le premier niveau de traitement et l’unité centrale de traitement numérique assurant au moins partiellement le deuxième niveau de traitement.According to a particular characteristic, the real-time processing means comprise proximity signal processing modules integrated in the cameras and a central digital processing unit, the proximity signal processing modules at least partially providing the first level of processing and the digital central processing unit at least partially providing the second level of processing.

Selon une autre caractéristique particulière, le deuxième niveau de traitement à bande passante réduite réalisé par les moyens de traitement temps réel comprend également au moins une restitution vidéo pour au moins une caméra.According to another particular characteristic, the second level of reduced-bandwidth processing carried out by the real-time processing means also comprises at least one video playback for at least one camera.

L’invention prévoit ainsi une architecture de traitement à deux niveaux qui permet de garantir le temps réel. Le premier niveau traite en parallèle toutes les voies de détection avec la très large bande passante nécessaire pour traiter les flux vidéo des capteurs d’image. Le traitement regroupe des corrections géométriques, photométriques et la production des informations liées aux menaces détectées mais non confirmées à ce stade (vignettes, index), qui nécessitent une bande passante beaucoup plus faible. Le second niveau fusionne et traite les informations issues du premier niveau afin de filtrer les menaces détectées et de restituer uniquement les menaces confirmées, par le biais de leurs coordonnées angulaires dans un repère géographique local. Ce second niveau permet également la restitution vidéo d'une ou de plusieurs voies de détection.The invention thus provides for a two-level processing architecture which makes it possible to guarantee real time. The first level processes all the detection channels in parallel with the very wide bandwidth required to process the video streams from the image sensors. The processing includes geometric and photometric corrections and the production of information related to threats detected but not confirmed at this stage (thumbnail, index), which require much lower bandwidth. The second level merges and processes the information from the first level in order to filter the detected threats and to restore only the confirmed threats, through their angular coordinates in a local geographical reference. This second level also allows the video restitution of one or more detection channels.

Selon encore une autre caractéristique particulière, la disposition régulière et symétrique des caméras satisfait à la théorie mathématique dite du « pavage de la sphère » avec des pavés de forme identique.According to yet another particular characteristic, the regular and symmetrical arrangement of the cameras satisfies the mathematical theory known as the “tiling of the sphere” with tiles of identical shape.

Selon encore une autre caractéristique particulière, les caméras sont agencées sur des première et deuxième tranches de sphère parallèles, un premier groupe de caméras étant agencées dans la première tranche de sphère et un deuxième groupe caméras étant agencées dans la deuxième tranche de sphère, avec le diamètre de la première tranche étant supérieur à celui de la deuxième tranche.According to yet another particular characteristic, the cameras are arranged on first and second parallel sphere slices, a first group of cameras being arranged in the first sphere slice and a second camera group being arranged in the second sphere slice, with the diameter of the first slice being greater than that of the second slice.

Selon encore une autre caractéristique particulière, le premier groupe comprend huit caméras et le second groupe comprend quatre caméras.According to yet another particular characteristic, the first group comprises eight cameras and the second group comprises four cameras.

Selon encore une autre caractéristique particulière, le module optronique comprend une structure mécanique porteuse monobloc sur laquelle les caméras sont montées de manière fixe.According to yet another particular characteristic, the optronic module comprises a one-piece mechanical support structure on which the cameras are mounted in a fixed manner.

Selon encore une autre caractéristique particulière, outre le module de traitement de signal de proximité, chaque caméra comprend un dispositif optique de prise de vue à focale fixe de grande ouverture, de haute résolution et compensé en température qui est associé à un capteur d’image de la caméra.According to yet another particular characteristic, in addition to the proximity signal processing module, each camera comprises a large-aperture, high-resolution and temperature-compensated fixed focal length optical pickup device which is associated with an image sensor of the camera.

Selon encore une autre caractéristique particulière, les caméras comprennent un capteur d’image de type dit « CMOS ».According to yet another particular characteristic, the cameras comprise a so-called “CMOS” type image sensor.

L’invention concerne aussi un ensemble de deux systèmes tels que décrits brièvement ci-dessus qui sont reliés par une liaison de communication de type filaire, hertzienne ou optique.The invention also relates to a set of two systems as described briefly above which are connected by a communication link of the wired, radio or optical type.

L’invention propose ainsi une architecture nouvelle ayant une pluralité de voies de détection de très hautes performances organisées en une structure parallèle. Le système optronique fournit les données de localisation des menaces détectées avec un minimum de latence. L’exploitation des données vidéo produites par les caméras nécessite une bande passante très importante. C’est la raison pour laquelle l’invention prévoit une exploitation en parallèle des données vidéo notamment pour les traitements d’amélioration, de calibration (géométrique, photométrique et colorimétrique) et de détection. De préférence, aucun fusionnement de secteurs d’angle solide (correspondant aux voies de détection) n’est réalisé pour la restitution. L’invention prévoit une restitution individuelle des secteurs, ce qui apporte une aide à la décision accrue.The invention thus proposes a new architecture having a plurality of very high performance detection channels organized in a parallel structure. The optronic system provides location data for detected threats with minimal latency. The exploitation of the video data produced by the cameras requires a very high bandwidth. This is the reason why the invention provides parallel exploitation of video data, in particular for enhancement, calibration (geometric, photometric and colorimetric) and detection processing. Preferably, no merging of solid angle sectors (corresponding to the detection channels) is carried out for the restitution. The invention provides for individual restitution of the sectors, which provides increased decision support.

D’autres caractéristiques et avantages de la présente invention apparaîtront plus clairement à la lecture de la description détaillée ci-dessous de plusieurs formes de réalisation particulières de l’invention, en référence aux dessins annexés, dans lesquels :Other characteristics and advantages of the present invention will appear more clearly on reading the detailed description below of several particular embodiments of the invention, with reference to the appended drawings, in which:

La est une vue en perspective de l’enveloppe extérieure d’une forme de réalisation particulière à douze voies de détection du système optronique selon l’invention. There is a perspective view of the outer casing of a particular embodiment with twelve detection channels of the optronic system according to the invention.

La est une vue de côté en transparence du système optronique de la . There is a transparent side view of the optronic system of the .

La est une vue de dessus du système optronique de la , montrant un premier positionnement angulaire des caméras intégrées de celui-ci. There is a top view of the optronic system of the , showing a first angular positioning of the integrated cameras of this one.

La est une vue de côté du système optronique de la , montrant un autre positionnement angulaire des caméras intégrées de celui-ci. There is a side view of the optronic system of the , showing another angular positioning of this one's built-in cameras.

La est une vue de côté du système optronique de la , montrant des premières positions relatives des caméras du système optronique, qui sont disposées dans des première et deuxième tranches de sphère parallèles. There is a side view of the optronic system of the , showing first relative positions of the cameras of the optronic system, which are arranged in first and second parallel sphere slices.

La est une vue de dessus du système optronique de la , montrant d’autres positions relatives des caméras du système optronique, qui sont alignées symétriquement selon des plans parallèles à des plans centraux perpendiculaires. There is a top view of the optronic system of the , showing other relative positions of the cameras of the optronic system, which are aligned symmetrically according to planes parallel to perpendicular central planes.

La est un bloc-diagramme schématique montrant douze voies de détection du système optronique de la , ainsi qu’une unité centrale de traitement numérique de celui-ci. There is a schematic block diagram showing twelve detection channels of the optronic system of the , as well as a central digital processing unit thereof.

La est un premier bloc-diagramme fonctionnel relatif à un traitement numérique à large bande passante exécuté sur les données d’image d’une voie de détection du système optronique de la , pour la détection de pistes de menace sur la voie de détection et la restitution vidéo de celle-ci. There is a first functional block diagram relating to high-bandwidth digital processing executed on the image data of a detection channel of the optronic system of the , for the detection of threat tracks on the detection path and the video restitution thereof.

La est un deuxième bloc-diagramme fonctionnel relatif à un traitement numérique à bande passante réduite exécuté sur les données émanant des différentes voies de détection du système optronique de la , pour la poursuite 2D multi-voies de pistes de menace et la restitution vidéo de voies sélectionnées. There is a second functional block diagram relating to reduced-bandwidth digital processing executed on the data emanating from the various detection channels of the optronic system of the , for multi-lane 2D tracking of threat trails and video playback of selected lanes.

est un troisième bloc-diagramme fonctionnel relatif à un traitement numérique à bande passante réduite exécuté sur les données émanant des différentes voies de détection de deux systèmes optroniques couplés de la , pour la poursuite 3D multi-voies de pistes de menace, la géolocalisation et la génération d’alarmes. is a third functional block diagram relating to a reduced-bandwidth digital processing executed on the data emanating from the different detection channels of two coupled optronic systems of the , for multi-lane 3D tracking of threat tracks, geolocation and alarm generation.

En référence aux Figs.1 à 10, il est maintenant décrit ci-dessous une forme de réalisation particulière SO du système optronique hémisphérique de détection et localisation de menaces selon l’invention.With reference to Figs. 1 to 10, a particular embodiment SO of the hemispherical optronic threat detection and localization system according to the invention is now described below.

Comme il apparait plus clairement aux Figs.1 et 2, le système optronique SO se présente extérieurement sous la forme générale d’une demi-sphère à l’intérieur de laquelle sont logés les différents organes fonctionnels du système. Le système optronique SO comprend un boîtier formant base BO et un couvercle CO en forme de demi-sphère.As it appears more clearly in Figs.1 and 2, the SO optronic system appears externally in the general form of a half-sphere inside which are housed the various functional organs of the system. The optronic system SO comprises a housing forming a base BO and a cover CO in the form of a half-sphere.

Le boîtier BO renferme une unité centrale de traitement numérique UC, montrée à la , qui assure notamment des fonctions de commande du système optronique SO et des fonctions de traitement de données en temps réel décrites plus en détail par la suite. Par ailleurs, en référence plus particulièrement aux Figs.1 et 7, des connecteurs CN1 à CN4 sont montés sur le boîtier BO et correspondent respectivement à des interfaces de communication C2 et IHM, un bus de restitution vidéo VID et une liaison d’alimentation en énergie PW. L’interface de communication C2 est dédiée à un système opérationnel de commandement et contrôle, dit « C2 » chargé des prises de décision relativement aux menaces détectées. L’interface de communication IHM est une interface homme-machine propriétaire dédiée notamment aux opérations de mise à jour du logiciel et de maintenance du système.The housing BO houses a central digital processing unit UC, shown in , which provides in particular control functions of the optronic system SO and real-time data processing functions described in more detail below. Furthermore, with more particular reference to Figs.1 and 7, connectors CN1 to CN4 are mounted on the box BO and correspond respectively to communication interfaces C2 and IHM, a video reproduction bus VID and a power supply link in PW energy. The C2 communication interface is dedicated to an operational command and control system, called “C2” responsible for decision-making relative to detected threats. The IHM communication interface is a proprietary man-machine interface dedicated in particular to software update and system maintenance operations.

Le boîtier BO supporte le montage fixe de douze caméras V1 à V12, bien visibles à la , formant un module optronique qui comporte douze voies de détection de menace V1d à V12d correspondant respectivement aux douze caméras V1 à V12. Les caméras V1 à V12 sont toutes de même type de façon à obtenir douze voies de détection V1d à V12d ayant des caractéristiques sensiblement identiques. On notera que les repères V1(d) à V12(d) utilisés dans les figures désignent les caméras V1 à V12 et les voies de détection V1d à V12d leur correspondant, respectivement.The BO box supports the fixed mounting of twelve cameras V1 to V12, clearly visible to the , forming an optronic module which comprises twelve threat detection channels V1d to V12d corresponding respectively to the twelve cameras V1 to V12. The cameras V1 to V12 are all of the same type so as to obtain twelve detection channels V1d to V12d having substantially identical characteristics. It will be noted that the references V1(d) to V12(d) used in the figures designate the cameras V1 to V12 and the detection channels V1d to V12d corresponding to them, respectively.

Les caméras V1 à V12 sont montées fixes sur une structure mécanique porteuse (non représentée) du module optronique. Typiquement, cette structure mécanique porteuse est réalisée sous la forme d’une pièce monobloc, avec des précisions mécaniques standards, ce qui est économiquement avantageux. Comme représenté schématiquement à la , chaque caméra V1 à V12 comprend essentiellement un capteur d’image CI1 à CI12, une optique de prise de vue OP1 à OP12 et un module de traitement de signal de proximité M1 à M12. Les ensembles formés des capteurs d’image CI1 à CI12 et de leurs optiques de prise de vue respectives OP1 à OP12 sont conçus pour ne nécessiter aucun réglage.The cameras V1 to V12 are mounted fixed on a mechanical structure supporting (not shown) the optronic module. Typically, this supporting mechanical structure is made in the form of a single piece, with standard mechanical details, which is economically advantageous. As shown schematically in , each camera V1 to V12 essentially comprises an image sensor CI1 to CI12, a shooting lens OP1 to OP12 and a proximity signal processing module M1 to M12. The assemblies formed by the image sensors CI1 to CI12 and their respective shooting optics OP1 to OP12 are designed to require no adjustment.

Comme visible aux Figs.1 et 2, le couvercle CO comporte douze hublots (non repérées) pour les champs de vision des douze caméras V1 à V12, respectivement, aménagés en correspondance avec les optiques de prise de vue de celles-ci.As visible in Figs.1 and 2, the cover CO comprises twelve portholes (not marked) for the fields of vision of the twelve cameras V1 to V12, respectively, arranged in correspondence with the shooting optics thereof.

De manière générale, dans un système optronique selon l’invention, les caméras de haute résolution sont nécessaires pour obtenir un nombre important de pixels par stéradian et garantir la précision de la détection des menaces.In general, in an optronic system according to the invention, high resolution cameras are necessary to obtain a large number of pixels per steradian and guarantee the accuracy of threat detection.

Dans le système optronique SO, les capteurs d’image CI1 à CI12 ont été choisis de type « CMOS », avec une taille (résolution d’image) importante, de préférence disponible sur catalogue pour un moindre coût. Ainsi, par exemple, un capteur d’image « CMOS » de technologie « 8K » disponible sur catalogue et fournissant une image de 8192x4320 pixels pourra être choisi pour les capteurs d’image CI1 à CI12. De plus, on notera que la conversion analogique/numérique intégrée dans les capteurs d’image CI1 à CI12 de type « CMOS » procure une excellente immunité contre les rayonnements électromagnétiques, malgré le nombre élevé (12) d’hublots nécessaires pour les caméras V1 à V12. Bien entendu, des capteurs d’image autres que des capteurs de type « CMOS » pourront être choisis dans certaines formes de réalisation particulières de l’invention, par exemple pour satisfaire à des contraintes spécifiques.In the SO optronic system, the image sensors CI1 to CI12 have been chosen of the "CMOS" type, with a large size (image resolution), preferably available on catalog for a lower cost. Thus, for example, an "8K" technology "CMOS" image sensor available in the catalog and providing an image of 8192x4320 pixels may be chosen for the CI1 to CI12 image sensors. In addition, it should be noted that the analog/digital conversion integrated in the “CMOS” type image sensors CI1 to CI12 provides excellent immunity against electromagnetic radiation, despite the high number (12) of windows required for the V1 cameras. at V12. Of course, image sensors other than “CMOS” type sensors could be chosen in certain particular embodiments of the invention, for example to satisfy specific constraints.

Les optiques OP1 à OP12 doivent être adaptées pour les capteurs d’image CI1 à CI12 qui sont de grand format, typiquement supérieur à 40 mm. Elles sont donc volumineuses. Par ailleurs, l’exploitation de la résolution en pixel sur tout le champ de vision des capteurs d’image CI1 à CI12 impose que les optiques OP1 à OP12 soient de grande qualité. Des optiques de type à focale et iris fixes, avec une grande ouverture et une haute résolution et résistantes aux chocs mécaniques ont été choisies pour les optiques OP1 à OP12. La mise au point des optiques OP1 à OP12 est optimisée pour des menaces comprises dans une plage de distances déterminée, par exemple, entre 20 m et 1000 m, et doit être maintenue fixe sur une plage de températures étendue pour garantir l’obtention des performances voulues. Pour cela, les optiques OP1 à OP12 sont munies chacune d’un dispositif de compensation de focalisation statique. Le comportement en température de optiques OP1 à OP12 ayant été caractérisé préalablement, les dispositifs de compensation de focalisation statique sont calibrés en conséquence.The OP1 to OP12 optics must be suitable for the CI1 to CI12 image sensors which are large format, typically greater than 40 mm. They are therefore bulky. Furthermore, the exploitation of the pixel resolution over the entire field of vision of the image sensors CI1 to CI12 requires that the optics OP1 to OP12 be of high quality. Fixed focal length and iris type optics, with a large aperture and high resolution and resistant to mechanical shocks have been chosen for the OP1 to OP12 optics. The focus of OP1 to OP12 optics is optimized for threats within a specified distance range, for example, 20m to 1000m, and must be kept fixed over a wide temperature range to ensure performance is achieved. wanted. For this, the optics OP1 to OP12 are each equipped with a static focusing compensation device. The temperature behavior of optics OP1 to OP12 having been characterized beforehand, the static focusing compensation devices are calibrated accordingly.

Les modules de traitement numérique de proximité M1 à M12 des caméras V1 à V12 comprennent un logiciel embarqué qui réalise essentiellement des traitements en temps réel de détection et d’amélioration de l’image, et notamment des corrections géométriques et des traitements d’harmonisation. Typiquement, les modules M1 à M12 sont réalisés chacun avec un circuit prédiffusé programmable dit « FPGA » (par exemple de type Kintex® Ultrascale®) associé à une mémoire vive dynamique « DDR4 » de très grande bande passante, par exemple, supérieure à 10Gb/s. En effet, la bande passante de la mémoire « DDR4 » doit être importante pour la réalisation des traitements temps réel requis et la restitution temps réel des flux vidéo.The M1 to M12 digital proximity processing modules of the V1 to V12 cameras include on-board software that essentially performs real-time image detection and enhancement processing, and in particular geometric corrections and harmonization processing. Typically, the modules M1 to M12 are each made with a programmable gate circuit called “FPGA” (for example of the Kintex® Ultrascale® type) associated with a “DDR4” dynamic random access memory of very high bandwidth, for example, greater than 10Gb /s. Indeed, the bandwidth of the "DDR4" memory must be high for the performance of the required real-time processing and the real-time restitution of the video streams.

En référence aux Figs.1 à 6, les caméras V1 à V12 sont disposées géométriquement de manière régulière et symétrique, afin de couvrir de façon optimale un angle solide total de 2.pi stéradians. Chacune des caméras V1 à V12 assure la couverture d’un secteur d’angle solide de la demi-sphère. La disposition géométrique des caméras V1 à V12 autorise des voies de détection de menace distinctes identiques qui peuvent être clonées, garantit l’obtention de performances de précision élevées (résolution spatiale), avec un traitement en parallèle et en temps réel des données d’image, et permet d’optimiser le volume et le coût du système optronique SO.With reference to Figs.1 to 6, the cameras V1 to V12 are arranged geometrically in a regular and symmetrical manner, in order to optimally cover a total solid angle of 2.pi steradians. Each of the cameras V1 to V12 provides coverage of a solid corner sector of the hemisphere. The geometric layout of the V1 to V12 cameras allows identical distinct threat detection paths that can be cloned, guarantees the achievement of high precision performance (spatial resolution), with parallel and real-time processing of image data , and makes it possible to optimize the volume and the cost of the SO optronic system.

Comme mieux visible aux Figs.4 à 6, les caméras V1 à V12, montrées sans leurs optiques OP1 à OP12 aux Figs.5 et 6, sont agencées sur deux niveaux superposés, à savoir, sur des première et deuxième tranches de sphère parallèles TS1 et TS2, avec le diamètre de la première tranche TS1 étant supérieur à celui de la deuxième tranche TS2.As better visible in Figs.4 to 6, the cameras V1 to V12, shown without their optics OP1 to OP12 in Figs.5 and 6, are arranged on two superimposed levels, namely, on first and second slices of parallel sphere TS1 and TS2, with the diameter of the first slice TS1 being greater than that of the second slice TS2.

Dans la première tranche de sphère TS1, les huit caméras V1 à V8 sont réparties de manière régulière et symétrique avec un écart angulaire EA1 projeté sur un plan horizontal de 45° entre deux caméras directement voisines (cf. ) et avec un premier angle d’élévation AE1 (cf. ).In the first slice of sphere TS1, the eight cameras V1 to V8 are distributed in a regular and symmetrical way with an angular difference EA1 projected on a horizontal plane of 45° between two directly neighboring cameras (cf. ) and with a first elevation angle AE1 (cf. ).

Dans la deuxième tranche de sphère TS2, les quatre caméras V9 à V12 sont réparties de manière régulière et symétrique avec un écart angulaire EA2 projeté sur un plan horizontal de 90° entre deux caméras directement voisines (cf. ) et avec un deuxième angle d’élévation AE2 (cf. ) supérieur au premier angle d’élévation AE1 susmentionné.In the second slice of sphere TS2, the four cameras V9 to V12 are distributed in a regular and symmetrical way with an angular difference EA2 projected on a horizontal plane of 90° between two directly neighboring cameras (cf. ) and with a second elevation angle AE2 (cf. ) greater than the aforementioned first elevation angle AE1.

En vue de dessus, comme montré à la , les caméras V1 à V12 apparaissent comme étant alignées symétriquement selon des plans parallèles par rapport à deux plans centraux de symétrie perpendiculaires.In top view, as shown in , the cameras V1 to V12 appear as being aligned symmetrically according to planes parallel with respect to two central planes of perpendicular symmetry.

Ainsi, en considérant un premier plan central de symétrie PC1, les caméras V7, V12, V9 et V2 et les caméras V6, V11, V10 et V3 apparaissent comme étant alignées respectivement dans des premiers plans parallèles P1 et P2 qui sont symétriques par rapport au premier plan central PC1. Les caméras V8 et V1 et les caméras V5 et V4 apparaissent comme étant alignées respectivement dans d’autres premiers plans parallèles P3 et P4 qui sont symétriques par rapport au premier plan central PC1 et plus éloignés de ce dernier que les premiers plans parallèles P1 et P2. De plus, en considérant un deuxième plan central de symétrie PC2 perpendiculaire au premier plan central PC1, les caméras V8, V12, V11 et V5 et les caméras V1, V9, V10 et V4 apparaissent comme étant alignées respectivement dans des deuxièmes plans parallèles P5 et P6 qui sont symétriques par rapport au deuxième plan central PC2. Les caméras V7 et V6 et les caméras V2 et V3 apparaissent comme étant alignées respectivement dans d’autres deuxièmes plans parallèles P7 et P8 qui sont symétriques par rapport au deuxième plan central PC2 et plus éloignés de ce dernier que les deuxièmes plans parallèles P5 et P6.Thus, by considering a first central plane of symmetry PC1, the cameras V7, V12, V9 and V2 and the cameras V6, V11, V10 and V3 appear as being aligned respectively in the first parallel planes P1 and P2 which are symmetrical with respect to the central foreground PC1. The cameras V8 and V1 and the cameras V5 and V4 appear as being aligned respectively in other first parallel planes P3 and P4 which are symmetrical with respect to the first central plane PC1 and more distant from the latter than the first parallel planes P1 and P2 . Moreover, by considering a second central plane of symmetry PC2 perpendicular to the first central plane PC1, the cameras V8, V12, V11 and V5 and the cameras V1, V9, V10 and V4 appear as being aligned respectively in second parallel planes P5 and P6 which are symmetrical with respect to the second central plane PC2. The cameras V7 and V6 and the cameras V2 and V3 appear as being aligned respectively in other second parallel planes P7 and P8 which are symmetrical with respect to the second central plane PC2 and further from the latter than the second parallel planes P5 and P6 .

Conformément à l’invention, la configuration géométrique optimale du système optronique SO, avec les caméras V1 à V12, a été déterminée à l’aide de la théorie mathématique du pavage de la sphère avec des pavés de forme identique, et avec les données d'entrée suivantes :In accordance with the invention, the optimal geometric configuration of the optronic system SO, with the cameras V1 to V12, was determined using the mathematical theory of the tiling of the sphere with tiles of identical shape, and with the data from following entry:

- Voies de détection identiques ;- Identical detection channels;

- Symétrie dans la répartition des voies de détection ;- Symmetry in the distribution of detection channels;

- Caméras avec des capteurs d’image de type « CMOS » ayant une résolution d’image disponible sur catalogue ;- Cameras with "CMOS" type image sensors with an image resolution available in the catalogue;

- Volume défini du système optronique ;- Defined volume of the optronic system;

- Absence de réglages des ensembles de capteurs d’image et optiques de prise de vue associées dans les caméras ;- Absence of adjustments to the sets of image sensors and associated shooting optics in the cameras;

- Structure mécanique porteuse des caméras de type monobloc et réalisée avec des précisions standards.- Mechanical structure carrying monobloc type cameras and produced with standard precision.

Le volume du système optronique SO est défini par un diamètre de 500 mm et une hauteur de 500 mm. Les capteurs d’image de type « CMOS » qui ont été choisis ont une taille effective de 60 Mpx (mégapixels), ce qui donne une taille utile supérieure à 40 Mpx. Les voies de détection ont chacune un champ utile de 50°x50°. La masse du système optronique SO est inférieure à 20 kg.The volume of the SO optronic system is defined by a diameter of 500 mm and a height of 500 mm. The "CMOS" type image sensors that were chosen have an effective size of 60 Mpx (megapixels), which gives a useful size greater than 40 Mpx. The detection channels each have a useful field of 50°x50°. The mass of the SO optronic system is less than 20 kg.

Dans l’architecture générale décrite ci-dessus du module optronique du système SO de l’invention, les organes fonctionnels optiques et électroniques de celui-ci sont statiques. Il en résulte que le module optronique du système SO de l’invention bénéficie d’une excellente robustesse au stress mécanique, ce qui facilite notamment la tenue des référentiels. Par ailleurs, le coût du module optronique est optimisé grâce notamment à l’utilisation des capteurs d’image susmentionnés de type « CMOS » disponibles sur catalogue, et donc sans développement spécifique, de la structure mécanique porteuse monobloc avec des précisions standards et de la conception choisie sans réglage des ensembles de capteurs d’image et optiques de prise de vue.In the general architecture described above of the optronic module of the SO system of the invention, the optical and electronic functional organs thereof are static. As a result, the optronic module of the SO system of the invention benefits from excellent robustness to mechanical stress, which in particular facilitates the holding of the reference frames. Furthermore, the cost of the optronic module is optimized thanks in particular to the use of the above-mentioned “CMOS” type image sensors available in the catalogue, and therefore without specific development, of the one-piece supporting mechanical structure with standard accuracies and the chosen design without adjusting the sets of image sensors and shooting optics.

Par ailleurs, on notera que le système optronique de l’invention pourra être décliné en plusieurs configurations pour des champs d'observation réduit, du fait de la symétrie dans la répartition des voies de détection. Ainsi, par exemple, la surveillance de pi/2 stéradians, 2pi/3 stéradians ou pi stéradians pourra être assurée respectivement avec une configuration à trois voies, une configuration à quatre voies et une configuration à six voies.Furthermore, it should be noted that the optronic system of the invention can be declined in several configurations for reduced fields of observation, due to the symmetry in the distribution of the detection channels. Thus, for example, the monitoring of pi/2 steradians, 2pi/3 steradians or pi steradians could be ensured respectively with a three-channel configuration, a four-channel configuration and a six-channel configuration.

En référence maintenant plus particulièrement à la , l’unité centrale de traitement numérique UC est choisie pour être apte au traitement temps réel et assure notamment les fonctions F1_UC à F8_UC suivantes :With particular reference now to the , the central digital processing unit UC is chosen to be suitable for real-time processing and in particular performs the following functions F1_UC to F8_UC:

- F1_UC : Commande des caméras V1 à V12, formées chacune d’un capteur d’image CI1 à CI12, d’une optique OP1 à OP12 et d’un module de traitement de signal de proximité M1 à M12 ;- F1_UC: Control of cameras V1 to V12, each consisting of an image sensor CI1 to CI12, optics OP1 to OP12 and a proximity signal processing module M1 to M12;

- F2_UC : Gestion de la synchronisation des voies de détection V1d à V12d ;- F2_UC: Management of synchronization of detection channels V1d to V12d;

- F3_UC : Calage spatial et temporel des voies de détection V1d à V12d ;- F3_UC: Spatial and temporal setting of detection channels V1d to V12d;

- F4_UC : Poursuite 2D des menaces détectées ;- F4_UC: 2D tracking of detected threats;

- F5_UC : Poursuite 3D des menaces détectées (sur des données émanant de l’association de deux systèmes optroniques selon l’invention, et éventuellement d’un autre système fournissant la distance à laquelle se trouve les menaces) ;- F5_UC: 3D tracking of detected threats (on data emanating from the association of two optronic systems according to the invention, and possibly from another system providing the distance at which the threats are located);

- F6_UC : Restitution vidéo à la demande, en simultané, des douze secteurs angulaires correspondant aux voies de détection V1d à V12d ;- F6_UC: Video playback on demand, simultaneously, of the twelve angular sectors corresponding to the detection channels V1d to V12d;

- F7_UC : Gestion des interfaces de communication (C2, IHM), des dialogues et des échanges de données ;- F7_UC: Management of communication interfaces (C2, HMI), dialogues and data exchanges;

- F8_UC : Gestion de la conversion d’énergie, la distribution d’énergie et la gestion de la charge des batteries électriques du système optronique.- F8_UC: Management of energy conversion, energy distribution and management of the charge of the electric batteries of the optronic system.

Dans le système optronique SO, concernant les fonctions F2_UC et F3_UC, la cohérence temporelle entre les voies de détection V1d à V12d doit être garantie pour assurer une poursuite précise. Cela implique une synchronisation des prises d’images (début et durée de pose). Suivant les vitesses relatives observées des menaces, les caméras V1 à V12 pourront être autorisées à réaliser ou pas des poses différentes. Une perte de cohérence de durée de pose pourra être acceptée si les flous de bougé ne remettent pas en cause la détermination des coordonnées pour la poursuite.In the optronic system SO, concerning the functions F2_UC and F3_UC, the temporal coherence between the detection channels V1d to V12d must be guaranteed to ensure precise tracking. This implies a synchronization of the image captures (start and duration of exposure). Depending on the observed relative speeds of the threats, the cameras V1 to V12 may or may not be authorized to perform different poses. A loss of exposure duration consistency may be accepted if the motion blurs do not call into question the determination of the coordinates for tracking.

Outre les interfaces susmentionnées C2 et IHM, le bus de restitution vidéo VID et la liaison d’alimentation en énergie PW correspondant respectivement aux connecteurs CN1 à CN4 susmentionnés, l’unité centrale de traitement numérique UC pourra également gérer d’autres interfaces de communication, bus et autres, selon les formes de réalisation du système optronique de l’invention. Ainsi, par exemple, lorsque le système optronique SO est conçu pour être associé à un autre système optronique analogue de l’invention, désigné SO’ par la suite, pour une poursuite 3D des menaces détectées (fonction F5_UC), des moyens de connectivité supplémentaires sont prévus pour la communication de données entre ces deux systèmes SO, SO’, typiquement via une liaison filaire spécifique, ou via une liaison hertzienne ou optique.In addition to the aforementioned interfaces C2 and IHM, the video reproduction bus VID and the power supply link PW corresponding respectively to the aforementioned connectors CN1 to CN4, the central digital processing unit UC will also be able to manage other communication interfaces, bus and others, according to the embodiments of the optronic system of the invention. Thus, for example, when the optronic system SO is designed to be associated with another analog optronic system of the invention, designated SO' hereafter, for 3D tracking of detected threats (function F5_UC), additional connectivity means are provided for data communication between these two systems SO, SO′, typically via a specific wired link, or via a radio or optical link.

Lorsque deux systèmes optroniques SO et SO’ coopèrent, l’unité centrale de traitement numérique UC du système maître gère les communications de données en temps réel entre les deux systèmes. Les données échangées en temps réel entre les systèmes optroniques SO et SO’, permettent notamment de garantir la cohérence temporelle entre les deux systèmes et les échanges de géolocalisation nécessaires au couplage et à la triangulation. L’unité centrale de traitement numérique UC exploite les données de détection des deux fois douze (2 x 12) voies de détection, soit les données des vingt-quatre (24) secteurs angulaires couverts au total par les deux systèmes SO, SO’, de façon à réaliser un filtrage de menaces potentielles retenues. Un filtrage final est réalisé à l’aide d’algorithmes exécutés directement par le processeur « CPU » (pour « Central Processing Unit ») de l’unité UC.When two optronic systems SO and SO' cooperate, the central digital processing unit UC of the master system manages the real-time data communications between the two systems. The data exchanged in real time between the optronic systems SO and SO', in particular make it possible to guarantee temporal consistency between the two systems and the exchanges of geolocation necessary for coupling and triangulation. The central digital processing unit UC uses the detection data of the two times twelve (2 x 12) detection channels, i.e. the data of the twenty-four (24) angular sectors covered in total by the two systems SO, SO', so as to carry out a filtering of potential threats retained. A final filtering is carried out using algorithms executed directly by the “CPU” processor (for “Central Processing Unit”) of the UC unit.

Les Figs.8 et 9 montrent une architecture de traitement numérique du système optronique SO.Figs.8 and 9 show a digital processing architecture of the SO optronic system.

La montre en détail un traitement numérique à large bande passante, désigné TLB ci-après, appliqué aux douze voies de détection V1d à V12d. Le traitement est exécuté en parallèle dans chaque voie de détection V1d à V12d du système optronique SO, respectivement par les modules de traitement de signal M1 à M12 coopérant avec l’unité centrale de traitement numérique UC. Le traitement TLB à large bande passante assure la détection de pistes de menace sur la voie avec la génération de deux coordonnées angulaires, la génération de vignettes (étiquette, index) représentatives des menaces et la restitution vidéo de la voie. Dans le système optronique SO, le traitement TLB délivre ses données de sortie, détaillées ci-dessous, avec une latence maximale qui n’excède pas typiquement 50 ms. Les données de sortie, pour chacune des voies de détection, sont transmises à l’unité centrale de traitement numérique UC en tant que données d’entrée d’un traitement numérique à bande passante réduite décrit plus bas en référence à la .There shows in detail a high-bandwidth digital processing, designated TLB below, applied to the twelve detection channels V1d to V12d. The processing is executed in parallel in each detection channel V1d to V12d of the optronic system SO, respectively by the signal processing modules M1 to M12 cooperating with the central digital processing unit UC. The high-bandwidth TLB processing ensures the detection of threat tracks on the track with the generation of two angular coordinates, the generation of thumbnails (label, index) representative of the threats and the video restitution of the track. In the optronic system SO, the TLB processing delivers its output data, detailed below, with a maximum latency which does not typically exceed 50 ms. The output data, for each of the detection channels, is transmitted to the central digital processing unit UC as input data for a reduced-bandwidth digital processing described below with reference to the .

Comme montré à la , en considérant la voie de détection Vnd (n étant un entier de 1 à 12) à laquelle est associée la caméra Vn (OPn, CIn, Mn), le traitement TLB comprend essentiellement huit blocs de traitement B1a à B8a. Ces huit blocs de traitement B1a à B8a sont implantés dans le module de traitement de signal Mn inclus dans la caméra Vn.As shown at , considering the detection channel Vnd (n being an integer from 1 to 12) with which the camera Vn (OPn, CIn, Mn) is associated, the processing TLB essentially comprises eight processing blocks B1a to B8a. These eight processing blocks B1a to B8a are installed in the signal processing module Mn included in the camera Vn.

Le bloc B1a réalise un traitement de correction géométrique sur les données vidéo d’entrée E0 délivrées par le capteur d’image CIn. Des corrections géométriques intrinsèques sont réalisées sur les données vidéo d’entrée E0 en fonction de données de calibration prédéfinies E1 dites « données de calibration usine ».Block B1a carries out geometric correction processing on the input video data E0 delivered by the image sensor CIn. Intrinsic geometric corrections are performed on the input video data E0 according to predefined calibration data E1 called “factory calibration data”.

Le bloc B2a réalise un traitement de conversion dans un repère géographique local des données vidéo issues du bloc B1a, à partir de données d’altitude E2 fournies par des capteurs d’altitude internes du système optronique SO.Block B2a carries out a conversion processing in a local geographical reference of the video data coming from block B1a, from altitude data E2 provided by internal altitude sensors of the optronic system SO.

Le bloc B3a réalise un traitement d’harmonisation photométrique dynamique sur les données vidéo issues du bloc B2a, à partir de données de luminance et chrominance E3 des autres voies de détection. Ces données de luminance et chrominance E3 sont fournies typiquement par un modèle numérique d’estimation.Block B3a performs dynamic photometric harmonization processing on the video data from block B2a, using luminance and chrominance data E3 from the other detection channels. These E3 luminance and chrominance data are typically provided by a numerical estimation model.

Les blocs B4a à B6a traitent les données vidéo pour délivrer des données de sortie de pistes de menace détectées PMn(CA, IX) incluant des coordonnées angulaires CA et des vignettes IX. Le bloc B4a réalise un traitement d’amélioration d’image sur les données vidéo issues du bloc B3a, en vue d’un traitement ultérieur de détection automatique de piste de menace. Le bloc B5a réalise le traitement de détection automatique de piste de menace à partir des données vidéo améliorées fournies par le bloc B4a. Le bloc B6a effectue un filtrage 2D sur les pistes de menace détectées automatiquement par le bloc B5a et délivre les données de sortie PMn(CA, IX) susmentionnées.Blocks B4a to B6a process the video data to deliver detected threat track output data PMn(CA, IX) including angular coordinates CA and vignettes IX. Block B4a performs image enhancement processing on the video data from block B3a, with a view to subsequent processing for automatic threat track detection. Block B5a performs the automatic threat track detection processing from the enhanced video data provided by block B4a. Block B6a performs 2D filtering on the threat tracks detected automatically by block B5a and delivers the aforementioned output data PMn(CA, IX).

Les blocs B7a et B8a effectuent un traitement de restitution vidéo pour la voie de détection Vnd et délivre en sortie la restitution vidéo VIDn correspondante. Le bloc B7a réalise un traitement d’amélioration d’image sur les données vidéo issues du bloc B3a, en vue de la visualisation sur écran de celles-ci. Le bloc B8a assure des fonctions d’adaptation et conversion des données vidéo au format souhaité pour la restitution vidéo VIDn.Blocks B7a and B8a perform a video restitution processing for the detection channel Vnd and outputs the corresponding video restitution VIDn. Block B7a performs image enhancement processing on the video data from block B3a, with a view to displaying them on screen. Block B8a provides functions for adapting and converting video data to the desired format for video restitution VIDn.

La montre en détail un traitement numérique à bande passante réduite, désigné TBR ci-après, supervisé par l’unité centrale de traitement numérique UC et exécuté sur les données PM1 à PM12 et VID1 à VID12. Les données PM1 à PM12 et VID1 à VID12 sont celles délivrées en sortie par les traitements à large bande passante TLB exécutés en parallèle par les modules de traitement de signal M1 à M12, respectivement. Le traitement TBR assure la poursuite multi-voies 2D des pistes de menace et des fonctions de génération d’alarmes, de localisation angulaire, de génération de vignettes (étiquette, index) et de restitution vidéo de voies sélectionnées. Dans le système optronique SO, le traitement TBR délivre ses données de sortie, détaillées ci-dessous, avec une latence maximale qui n’excède pas typiquement 100 ms, au niveau des interfaces de l’unité centrale de traitement numérique UC.There shows in detail a digital processing at reduced bandwidth, designated TBR below, supervised by the central digital processing unit UC and executed on the data PM1 to PM12 and VID1 to VID12. The data PM1 to PM12 and VID1 to VID12 are those outputted by the high-bandwidth processings TLB executed in parallel by the signal processing modules M1 to M12, respectively. TBR processing provides 2D multi-channel tracking of threat tracks and functions for generating alarms, angular localization, generation of thumbnails (label, index) and video playback of selected channels. In the optronic system SO, the processing TBR delivers its output data, detailed below, with a maximum latency which does not typically exceed 100 ms, at the interfaces of the central digital processing unit UC.

Comme montré à la , le traitement TBR comprend essentiellement quatre blocs de traitement B1b à B4b. Ces quatre blocs de traitement B1b à B4b sont exécutés par le processeur CPU de l’unité centrale de traitement numérique UC.As shown at , the TBR processing essentially comprises four processing blocks B1b to B4b. These four processing blocks B1b to B4b are executed by the processor CPU of the central digital processing unit UC.

Le bloc B1b réalise en premier lieu un traitement de fusion et de filtrage des données de pistes de menace PM1 à PM12 fournies en entrée par les traitements TLB des douze voies de détection V1d à V12d. Sur les données filtrées de pistes de menace, le bloc B1b réalise un traitement de poursuite multi-voies de pistes de menace filtrées et délivre en sortie des données de pistes de menace retenues PMF(CA, IX) incluant des coordonnées angulaires CA et des vignettes IX. Les données de pistes de menace retenues PMF(CA, IX) sont fournies aux blocs B2b et B3b.Block B1b first carries out a processing of fusion and filtering of the threat track data PM1 to PM12 supplied as input by the processings TLB of the twelve detection channels V1d to V12d. On the filtered data of threat tracks, the block B1b carries out a multi-path tracking processing of filtered threat tracks and outputs data of retained threat tracks PMF(CA, IX) including angular coordinates CA and vignettes IX. The retained threat track data PMF(CA, IX) are provided at blocks B2b and B3b.

Le bloc B2b réalise un traitement de génération d’alarme. Des alarmes générées AL sont associées aux données de pistes de menace retenues PMF(CA, IX) et délivrées en sortie avec ces données PMF(CA, IX).Block B2b performs alarm generation processing. Generated alarms AL are associated with the retained threat track data PMF(CA, IX) and output with this data PMF(CA, IX).

Le bloc B3b reçoit en entrée les données de restitution vidéo VID1 à VID12 fournies par les traitements TLB des douze voies de détection V1d à V12d, ainsi que les données de pistes de menace retenues PMF(CA, IX) fournies par le bloc B1b. Dans le bloc B3b, un traitement de superposition est effectué sur les données vidéo VID1 à VID12 de façon à y intégrer par superposition les données de pistes de menace retenues PMF. Le bloc B4b autorise une sélection des voies de détection dont la diffusion des données vidéo avec les données de pistes de menace retenues superposées est demandée par une commande de sélection CS. Les données vidéo VID_VS des voies de détection sélectionnées sont délivrées en sortie par le bloc B4b.The block B3b receives as input the video restitution data VID1 to VID12 provided by the TLB processings of the twelve detection channels V1d to V12d, as well as the retained threat track data PMF(CA, IX) provided by the block B1b. In block B3b, an overlay processing is carried out on the video data VID1 to VID12 so as to integrate therein by overlay the selected threat track data PMF. The block B4b authorizes a selection of the detection channels for which the broadcasting of the video data with the threat track data retained superimposed is requested by a selection command CS. The video data VID_VS of the selected detection channels are output by block B4b.

La configuration de traitement décrite ci-dessus du système optronique SO, en référence plus particulièrement aux Figs.8 et 9, est apte à assurer des traitements avec notamment les caractéristiques suivantes :The processing configuration described above of the optronic system SO, with more particular reference to Figs.8 and 9, is capable of providing processing with in particular the following characteristics:

- Débit du flux numérique : 140 Gb/s de flux temps réel à traiter ;- Digital flow rate: 140 Gb/s of real-time flow to be processed;

- Traitement jusqu’à 120 pistes de menace en parallèle ;- Processing up to 120 threat tracks in parallel;

- Fréquence de rafraîchissement des pistes de menace : 10 Hz ;- Threat track refresh rate: 10 Hz;

- Restitution des vidéos des 12 voies V1d à V12d avec la superposition des menaces ;- Restitution of the videos of the 12 channels V1d to V12d with the superimposition of the threats;

- Portée d’utilisation de 1 km pour des menaces de taille de l’ordre de 30 x 30 cm.- Range of use of 1 km for threats of the order of 30 x 30 cm.

La montre en détail un traitement numérique à bande passante réduite, désigné TBR2 ci-après, supervisé par l’unité centrale de traitement numérique UC et exécuté sur des données de pistes de menace PM1 à PM12, PM1’ à PM12’, émanant des voies de détection V1d à V12d, V1d’ à V12d’, de deux systèmes optroniques SO, SO’, respectivement, qui sont couplés comme indiqué plus haut. Le traitement TBR2 assure la poursuite multi-voies 3D des pistes de menace et des fonctions de génération d’alarmes, de géolocalisation et de génération de vignettes. Des données de localisation de menace E4 émanant d’un ou plusieurs autres systèmes et indiquant les distances des menaces peuvent également être utilisées par le traitement TBR2 pour la réalisation de ses fonctions susmentionnées.There shows in detail a digital processing at reduced bandwidth, designated TBR2 hereafter, supervised by the central digital processing unit UC and executed on threat track data PM1 to PM12, PM1' to PM12', emanating from the channels of detection V1d to V12d, V1d' to V12d', of two optronic systems SO, SO', respectively, which are coupled as indicated above. TBR2 processing provides 3D multi-path tracking of threat trails and functions for alarm generation, geolocation and thumbnail generation. Threat location data E4 emanating from one or more other systems and indicating the distances of the threats can also be used by the processing TBR2 for carrying out its aforementioned functions.

Comme montré à la , le traitement TBR2 comprend essentiellement quatre blocs de traitement B1c à B4c. Ces quatre blocs de traitement B1c à B4c sont exécutés par le processeur CPU de l’unité centrale de traitement numérique UC.As shown at , the TBR2 processing essentially comprises four processing blocks B1c to B4c. These four processing blocks B1c to B4c are executed by the processor CPU of the central digital processing unit UC.

Les blocs B1c, B1c’, réalisent chacun en premier lieu un traitement de filtrage des données de pistes de menace PM1 à PM12, PM1’ à PM12’, respectivement. Sur les données filtrées de pistes de menace, les blocs B1c, B1c’, réalisent chacun un traitement de poursuite multi-voies de pistes de menace filtrées et délivrent en sortie des données de pistes de menace retenues PMF(CA, IX), PMF’(CA, IX), respectivement, de manière similaire au bloc B1b du traitement TBR (cf. ). Les données de pistes de menace retenues PMF(CA, IX), PMF’(CA, IX), sont fournies aux blocs B2c.Blocks B1c, B1c' each perform first a filter processing of the threat track data PM1 to PM12, PM1' to PM12', respectively. On the filtered threat track data, the blocks B1c, B1c′ each carry out a multi-channel tracking processing of filtered threat tracks and deliver as output selected threat track data PMF(CA, IX), PMF′ (CA, IX), respectively, similarly to block B1b of the TBR treatment (cf. ). The retained threat track data PMF(CA, IX), PMF'(CA, IX), are supplied to the blocks B2c.

Le bloc B2c réalise un traitement d’harmonisation sur les données des deux systèmes optroniques SO et SO’, à savoir, essentiellement sur les données de pistes de menace retenues PMF(CA, IX), PMF’(CA, IX). Sur les données délivrées en sortie par le bloc B2c, le bloc B3c détermine des menaces potentielles MC et réalise un traitement d’estimation de distance par triangulation qui fournit des distances auxquelles se trouvent les menaces MC par rapport à un point de référence. Le bloc B3c transmet au bloc B4c, les données de menaces MC avec leurs distances estimées D. Le bloc B4c réalise un traitement de comparaison et cohérence entre les données reçues du bloc B3c et celles susmentionnées E4 reçues d’un ou plusieurs autres systèmes de façon à détecter et rejeter des fausses alarmes. Le bloc B4c délivre en sortie des alarmes AL et des données de menaces confirmées MC (GL, IX) avec les géolocalisations CL et les vignettes IX correspondantes.Block B2c carries out harmonization processing on the data of the two optronic systems SO and SO', namely, essentially on the data of the selected threat tracks PMF(CA, IX), PMF'(CA, IX). On the data output by the block B2c, the block B3c determines potential threats MC and performs distance estimation processing by triangulation which provides distances at which the threats MC are located with respect to a reference point. Block B3c transmits to block B4c the threat data MC with their estimated distances D. Block B4c performs a comparison and consistency processing between the data received from block B3c and the aforementioned data E4 received from one or more other systems in a to detect and reject false alarms. Block B4c outputs alarms AL and confirmed threat data MC (GL, IX) with geolocations CL and corresponding thumbnails IX.

L’invention ne se limite pas aux formes de réalisation particulières qui ont été décrites ici à titre d’exemple. L’homme du métier, selon les applications de l’invention, pourra apporter différentes modifications et variantes entrant dans le champ de protection de l’invention.The invention is not limited to the particular embodiments which have been described here by way of example. The person skilled in the art, depending on the applications of the invention, may make various modifications and variants falling within the scope of protection of the invention.

Claims (10)

Système optronique hémisphérique de détection et localisation de menaces comprenant un module optronique et des moyens de traitement (M1 à M12, UC), ledit module optronique ayant une pluralité de caméras (V1 à V12) disposées de façon à couvrir un angle solide de 2.pi stéradians, caractérisé en ce que lesdites caméras (V1 à V12) sont de type identique et sont disposées de manière régulière et symétrique et lesdits moyens de traitement (M1 à M12, UC) sont de type temps réel et sont agencés de façon à assurer un premier niveau de traitement à large bande passante (TLB) et un deuxième niveau de traitement à bande passante réduite (TBR), ledit premier niveau de traitement à large bande passante (TLB) comprenant un traitement en parallèle des flux vidéo desdites caméras (V1 à V12) assurant des corrections géométriques, photométriques (B2a, B3a) et une production d’informations de menace détectée (B4a à B6a, PM1 à PM12), et ledit deuxième niveau de traitement à bande passante réduite (TBR) comprenant un traitement de fusion et de filtrage (B1b) des informations de menace détectée (PM1 à PM12) issues dudit premier niveau de traitement à large bande passante (TBR) et une production d’informations de menace confirmée (B2b, PMF(CA, IX)) comprenant des coordonnées angulaires (CA) dans un repère géographique local de chaque menace confirmée.Hemispherical optronic system for detecting and locating threats comprising an optronic module and processing means (M1 to M12, UC), said optronic module having a plurality of cameras (V1 to V12) arranged so as to cover a solid angle of 2. pi steradians, characterized in that said cameras (V1 to V12) are of identical type and are arranged in a regular and symmetrical manner and said processing means (M1 to M12, UC) are of real-time type and are arranged in such a way as to ensure a first high-bandwidth (TLB) processing level and a second reduced-bandwidth (TBR) processing level, said first high-bandwidth (TLB) processing level comprising parallel processing of the video streams of said cameras (V1 to V12) ensuring geometric and photometric corrections (B2a, B3a) and production of detected threat information (B4a to B6a, PM1 to PM12), and said second level of processing at reduced bandwidth (TBR) comprising a processing of merging and filtering (B1b) detected threat information (PM1 to PM12) from said first high bandwidth processing level (TBR) and a production of confirmed threat information (B2b, PMF(CA, IX)) comprising angular coordinates (AC) in a local geographic reference of each confirmed threat. Système selon la revendication 1, caractérisé en ce que lesdits moyens de traitement comprennent des modules de traitement de signal de proximité (M1 à M12) intégrés dans lesdites caméras (V1 à V12) et une unité centrale de traitement numérique (UC), lesdits modules de traitement de signal de proximité (M1 à M12) assurant au moins partiellement ledit premier niveau de traitement à large bande passante (TLB) et ladite unité centrale de traitement numérique (UC) assurant au moins partiellement ledit deuxième niveau de traitement à bande passante réduite (TBR).System according to Claim 1, characterized in that the said processing means comprise proximity signal processing modules (M1 to M12) integrated in the said cameras (V1 to V12) and a central digital processing unit (UC), the said modules proximity signal processor (M1 to M12) at least partially providing said first level of high bandwidth (TLB) processing and said digital central processing unit (CPU) at least partially providing said second level of reduced bandwidth processing (TBR). Système selon la revendication 1 ou 2, caractérisé en ce que ledit deuxième niveau de traitement à bande passante réduite (TBR) réalisé par lesdits moyens de traitement comprend également au moins une restitution vidéo (VID_VS) pour au moins une caméra (V1 à V12, CS).System according to Claim 1 or 2, characterized in that the said second level of reduced-bandwidth processing (TBR) carried out by the said processing means also comprises at least one video restitution (VID_VS) for at least one camera (V1 to V12, CS). Système selon l’une quelconque des revendications 1 à 3, caractérisé en ce que ladite disposition régulière et symétrique desdites caméras (V1 à V2) satisfait à la théorie mathématique dite du « pavage de la sphère » avec des pavés de forme identique.System according to any one of Claims 1 to 3, characterized in that the said regular and symmetrical arrangement of the said cameras (V1 to V2) satisfies the mathematical theory known as the “tiling of the sphere” with tiles of identical shape. Système selon l’une quelconque des revendications 1 à 4, caractérisé en ce que lesdites caméras (V1 à V12) sont agencées sur des première et deuxième tranches de sphère parallèles (TS1, TS2), un premier groupe de caméras (V1 à V8) étant agencées dans ladite première tranche de sphère (TS1) et un deuxième groupe de caméras (V9 à V12) étant agencées dans ladite deuxième tranche de sphère (TS2), avec le diamètre de ladite première tranche de sphère (TS1) étant supérieur à celui de la deuxième tranche de sphère (TS2).System according to any one of Claims 1 to 4, characterized in that the said cameras (V1 to V12) are arranged on first and second parallel sphere slices (TS1, TS2), a first group of cameras (V1 to V8) being arranged in said first sphere slice (TS1) and a second group of cameras (V9 to V12) being arranged in said second sphere slice (TS2), with the diameter of said first sphere slice (TS1) being greater than that of the second sphere slice (TS2). Système selon la revendication 5, caractérisé en ce que ledit premier groupe de caméras comprend huit caméras (V1 à V8) et ledit second groupe de caméras comprend quatre caméras (V9 à V12).System according to claim 5, characterized in that said first group of cameras comprises eight cameras (V1 to V8) and said second group of cameras comprises four cameras (V9 to V12). Système selon l’une quelconque des revendications 1 à 6, caractérisé en ce que ledit module optronique comprend une structure mécanique porteuse monobloc sur laquelle lesdites caméras (V1 à V12) sont montées de manière fixe.System according to any one of Claims 1 to 6, characterized in that the said optronic module comprises a one-piece mechanical support structure on which the said cameras (V1 to V12) are fixedly mounted. Système selon l’une quelconque des revendications 1 à 7, caractérisé en ce que, outre ledit module de traitement de signal de proximité (M1 à M12), chaque dite caméra (V1 à V12) comprend un dispositif optique de prise de vue (OP1 à OP12) à focale fixe de grande ouverture, de haute résolution et compensé en température qui est associé à un capteur d’image (CI1 à CI12) de ladite caméra (V1 à V12).System according to any one of Claims 1 to 7, characterized in that, in addition to the said proximity signal processing module (M1 to M12), each said camera (V1 to V12) comprises an optical recording device (OP1 to OP12) with fixed focal length of large aperture, high resolution and temperature compensated which is associated with an image sensor (CI1 to CI12) of said camera (V1 to V12). Système selon l’une quelconque des revendications 1 à 8, caractérisé en ce que lesdites caméras (V1 à V12) comprennent un capteur d’image (CI1 à CI12) de type dit « CMOS ».System according to any one of Claims 1 to 8, characterized in that the said cameras (V1 to V12) comprise an image sensor (CI1 to CI12) of the so-called “CMOS” type. Ensemble de deux systèmes (SO, SO’) selon l’une quelconque des revendications 1 à 9 reliés par une liaison de communication de type filaire, hertzienne ou optique.Set of two systems (SO, SO') according to any one of Claims 1 to 9 connected by a communication link of the wired, radio or optical type.
FR2205175A 2021-09-17 2022-05-30 HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING Pending FR3127297A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/FR2022/051751 WO2023041884A1 (en) 2021-09-17 2022-09-16 Hemispherical optronic system for detecting and locating threats, employing real-time processing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2109795 2021-09-17
FR2109795A FR3127353A1 (en) 2021-09-17 2021-09-17 HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING

Publications (1)

Publication Number Publication Date
FR3127297A1 true FR3127297A1 (en) 2023-03-24

Family

ID=83188416

Family Applications (2)

Application Number Title Priority Date Filing Date
FR2109795A Pending FR3127353A1 (en) 2021-09-17 2021-09-17 HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING
FR2205175A Pending FR3127297A1 (en) 2021-09-17 2022-05-30 HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING

Family Applications Before (1)

Application Number Title Priority Date Filing Date
FR2109795A Pending FR3127353A1 (en) 2021-09-17 2021-09-17 HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING

Country Status (1)

Country Link
FR (2) FR3127353A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140104428A1 (en) * 2007-11-30 2014-04-17 Searidge Technologies Inc. Airport target tracking system
US20170013193A1 (en) * 2014-02-26 2017-01-12 Ecole Polytechnique Federale De Lausanne (Epfl) Large Field of View Multi-Camera Endoscopic Apparatus with Omni-Directional Illumination
US20170083788A1 (en) * 2015-09-23 2017-03-23 Qualcomm Incorporated Systems and methods for incremental object detection using dual-threshold local binary pattern operators
CN106851070A (en) * 2017-03-13 2017-06-13 北京智造宝科技有限公司 A kind of three dimensional face scanner with monitoring camera
US20180341278A1 (en) * 2017-01-23 2018-11-29 Hangzhou Zero Zero Technology Co., Ltd Multi-camera system and method of use
WO2020204893A1 (en) * 2019-03-29 2020-10-08 A^3 By Airbus, Llc Multiplex processing of image sensor data for sensing and avoiding external objects
US20210058556A1 (en) * 2019-08-21 2021-02-25 Hanwha Techwin Co., Ltd. Multi-camera apparatus and image capturing system including the same
CN112837207A (en) 2019-11-25 2021-05-25 影石创新科技股份有限公司 Panoramic depth measuring method, four-eye fisheye camera and binocular fisheye camera

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140104428A1 (en) * 2007-11-30 2014-04-17 Searidge Technologies Inc. Airport target tracking system
US20170013193A1 (en) * 2014-02-26 2017-01-12 Ecole Polytechnique Federale De Lausanne (Epfl) Large Field of View Multi-Camera Endoscopic Apparatus with Omni-Directional Illumination
US20170083788A1 (en) * 2015-09-23 2017-03-23 Qualcomm Incorporated Systems and methods for incremental object detection using dual-threshold local binary pattern operators
US20180341278A1 (en) * 2017-01-23 2018-11-29 Hangzhou Zero Zero Technology Co., Ltd Multi-camera system and method of use
CN106851070A (en) * 2017-03-13 2017-06-13 北京智造宝科技有限公司 A kind of three dimensional face scanner with monitoring camera
WO2020204893A1 (en) * 2019-03-29 2020-10-08 A^3 By Airbus, Llc Multiplex processing of image sensor data for sensing and avoiding external objects
US20210058556A1 (en) * 2019-08-21 2021-02-25 Hanwha Techwin Co., Ltd. Multi-camera apparatus and image capturing system including the same
KR20210022973A (en) 2019-08-21 2021-03-04 한화테크윈 주식회사 Multi camera apparatus and photography system having the same
CN112837207A (en) 2019-11-25 2021-05-25 影石创新科技股份有限公司 Panoramic depth measuring method, four-eye fisheye camera and binocular fisheye camera

Also Published As

Publication number Publication date
FR3127353A1 (en) 2023-03-24

Similar Documents

Publication Publication Date Title
AU2017203227B2 (en) Wide-field of view (FOV) imaging devices with active foveation capability
US10070055B2 (en) Devices and methods for optically multiplexed imaging
US9445018B2 (en) Imaging systems with phase detection pixels
US20170139131A1 (en) Coherent fiber array with dense fiber optic bundles for light-field and high resolution image acquisition
US20130021474A1 (en) Rolling-shutter imaging system with synchronized scanning illumination and methods for higher-resolution imaging
EP0697118B1 (en) Device for forming autostereoscopic images
CN111182238B (en) High-resolution mobile electronic equipment imaging device and method based on scanning light field
EP3700192B1 (en) Imaging device and signal processing device
AU2015213322A1 (en) Multiple pixel pitch for super resolution
AU2018351819B2 (en) Multi-spectral boresight alignment methods and systems
CN109163809B (en) Multi-aperture view field partially overlapped dual-band thermal imaging method and device
WO2023041884A1 (en) Hemispherical optronic system for detecting and locating threats, employing real-time processing
FR3127297A1 (en) HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING
Choudhury et al. Simultaneous enhancement of scanning area and imaging speed for a MEMS mirror based high resolution LiDAR
CN103248806A (en) Device for single camera to achieve spatial 360 degree annular panoramic and local precise imaging
US11994365B2 (en) Projectile tracking and 3D traceback method
CN106644074B (en) A kind of 3 D stereo spectrum imaging system
Popovic et al. State-of-the-art multi-camera systems
CN112600995A (en) Camera assembly, calibration method thereof and electronic equipment
CN114460660A (en) Pyramid wave-front sensor and target wave-front detection method
Wu et al. Illumination compensation of microcamera image in monocentric multiscale foveated imaging system
Zhang et al. Image Acquisition Devices
KR20190055319A (en) Wide-field patrol system

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20230324

PLFP Fee payment

Year of fee payment: 2