FR3127297A1 - HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING - Google Patents
HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING Download PDFInfo
- Publication number
- FR3127297A1 FR3127297A1 FR2205175A FR2205175A FR3127297A1 FR 3127297 A1 FR3127297 A1 FR 3127297A1 FR 2205175 A FR2205175 A FR 2205175A FR 2205175 A FR2205175 A FR 2205175A FR 3127297 A1 FR3127297 A1 FR 3127297A1
- Authority
- FR
- France
- Prior art keywords
- processing
- cameras
- level
- optronic
- bandwidth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 122
- 238000001514 detection method Methods 0.000 title abstract description 48
- 239000007787 solid Substances 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims abstract description 7
- 238000001914 filtration Methods 0.000 claims abstract description 7
- 238000004519 manufacturing process Methods 0.000 claims abstract description 7
- 238000004891 communication Methods 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000004927 fusion Effects 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 230000000717 retained effect Effects 0.000 description 7
- 102100030751 Eomesodermin homolog Human genes 0.000 description 4
- 101001064167 Homo sapiens Eomesodermin homolog Proteins 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 101100498818 Arabidopsis thaliana DDR4 gene Proteins 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 101000720958 Homo sapiens Protein artemis Proteins 0.000 description 1
- 102100025918 Protein artemis Human genes 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/06—Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B13/00—Optical objectives specially designed for the purposes specified below
- G02B13/16—Optical objectives specially designed for the purposes specified below for use in conjunction with image converters or intensifiers, or for use with projectors, e.g. objectives for projection TV
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B37/00—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
- G03B37/04—Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/65—Control of camera operation in relation to power supply
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
- Alarm Systems (AREA)
- Image Processing (AREA)
Abstract
SYSTÈME OPTRONIQUE HÉMISPHÉRIQUE DE DÉTECTION ET LOCALISATION DE MENACES À TRAITEMENT TEMPS RÉEL Le système optronique hémisphérique de détection et localisation de menaces comprend un module optronique et des moyens de traitement, le module optronique ayant une pluralité de caméras disposées de façon à couvrir un angle solide de 2.pi stéradians. Conformément à l’invention, les caméras sont de type identique et sont disposées de manière régulière et symétrique et les moyens de traitement sont de type temps réel et sont agencés de façon à assurer un premier niveau de traitement à large bande passante et un deuxième niveau de traitement à bande passante réduite, le premier niveau comprenant un traitement en parallèle des flux vidéo des caméras assurant des corrections géométriques, photométriques et une production d’informations de menace détectée, et le deuxième niveau comprenant un traitement de fusion et de filtrage des informations de menace détectée issues du premier niveau et une production d’informations de menace confirmée comprenant les coordonnées angulaires dans un repère géographique local de chaque menace confirmée.HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING The hemispherical optronic system for detection and location of threats comprises an optronic module and processing means, the optronic module having a plurality of cameras arranged so as to cover a solid angle of 2.pi steradians. According to the invention, the cameras are of identical type and are arranged in a regular and symmetrical manner and the processing means are of the real-time type and are arranged in such a way as to ensure a first level of wide-bandwidth processing and a second level processing at reduced bandwidth, the first level comprising parallel processing of the video streams from the cameras ensuring geometric and photometric corrections and production of detected threat information, and the second level comprising processing of fusion and filtering of the information of detected threat from the first level and a production of confirmed threat information comprising the angular coordinates in a local geographical reference of each confirmed threat.
Description
L’invention se situe de manière générale dans le domaine des technologies de la défense et de la sécurité, et concerne la détection et la localisation de cibles ou menaces. Plus particulièrement, l’invention se rapporte à un système optronique hémisphérique de détection et localisation de menaces, notamment pour la lutte anti-drone, à savoir, les drones pilotés ou autonomes, seuls ou en nuées.The invention generally falls within the field of defense and security technologies, and relates to the detection and location of targets or threats. More particularly, the invention relates to a hemispherical optronic system for detecting and locating threats, in particular for the fight against drones, namely, piloted or autonomous drones, alone or in clouds.
Dans l’état de la technique, plusieurs technologies ont été proposées pour détecter et localiser des menaces de type drone. De manière générale, ces technologies sont de type radioélectrique ou optronique. Elles comportent des radars de type passif ou actif et des systèmes optroniques de type mobile ou fixe.In the state of the art, several technologies have been proposed to detect and locate drone type threats. In general, these technologies are of the radioelectric or optronic type. They include passive or active type radars and mobile or fixed type optronic systems.
Les technologies radars existantes offrent les avantages d’une portée d’utilisation intéressante de plusieurs kilomètres et d’un traitement temps réel, mais procurent une faible précision de localisation (de l’ordre de 100 mrd – milliradian) et ne sont pas adaptées pour la couverture d’un demi-espace, c’est-à-dire, pour la couverture d’un angle solide de 2.pi stéradians. Pour améliorer la précision de localisation d’un système radar, il est connu de lui associer un système optronique qui apporte la précision requise. De plus, les technologies radars sont peu adaptées à un usage urbain du fait des taux élevés de fausses alarmes générées par l’environnement et de l’acceptabilité de la technologie active.Existing radar technologies offer the advantages of an interesting operating range of several kilometers and real-time processing, but provide low location precision (of the order of 100 mrd – milliradian) and are not suitable for the coverage of half a space, that is, for the coverage of a solid angle of 2.pi steradians. To improve the location accuracy of a radar system, it is known to associate it with an optronic system which provides the required accuracy. In addition, radar technologies are not very suitable for urban use due to the high rates of false alarms generated by the environment and the acceptability of the active technology.
Un système optronique de type mobile comprend généralement un ou plusieurs capteurs d’image montés sur une tourelle mobile. Un tel système optronique est compatible avec une exigence de traitement temps réel et est capable de fournir une précision de localisation élevée, de l’ordre de 0,3 mrd. Cependant, ce type de système optronique n’est fonctionnel que dans un angle solide restreint, ce qui le disqualifie lorsque la couverture en temps réel d’un demi-espace est requise.A mobile-type optronic system generally comprises one or more image sensors mounted on a mobile turret. Such an optronic system is compatible with a real-time processing requirement and is capable of providing high location accuracy, of the order of 0.3 mrd. However, this type of optronic system is only functional in a restricted solid angle, which disqualifies it when the real-time coverage of half a space is required.
Des systèmes optroniques de type fixe ont été proposé pour la couverture d’un demi-espace. Les systèmes optroniques fixes connus se répartissent en trois catégories, à savoir, les systèmes mono-capteur, les systèmes multi-capteurs civils ou industriels et les systèmes multi-capteurs militaires.Fixed-type optronic systems have been proposed for half-space coverage. Known fixed optronic systems fall into three categories, namely, single-sensor systems, civil or industrial multi-sensor systems and military multi-sensor systems.
Les systèmes mono-capteur susmentionnés comprennent un seul capteur couplé à une optique anamorphique. Les technologies disponibles de capteur (« CCD » ou « CMOS ») ne permettent pas à cette architecture d’atteindre des performances élevées en termes de précision de localisation et de portée d’utilisation. Ces systèmes, essentiellement destinés au marché de la surveillance industrielle ou privée, ont pour fonction principale de délivrer une représentation vidéo d'un demi-espace, leurs performances de précision de localisation et de portée d’utilisation se limitant respectivement à 50 mrd environ et à 150 mètres au maximum.The aforementioned mono-sensor systems include a single sensor coupled to anamorphic optics. The available sensor technologies (“CCD” or “CMOS”) do not allow this architecture to achieve high performance in terms of location accuracy and range of use. These systems, essentially intended for the industrial or private surveillance market, have the main function of delivering a video representation of half a space, their performance in terms of location accuracy and range of use being limited respectively to approximately 50 mrd and at a maximum of 150 meters.
Concernant les systèmes multi-capteurs civils ou industriels susmentionnés, ceux-ci ont également pour fonction principale de délivrer une représentation vidéo d'un demi-espace et regroupent essentiellement des caméras destinées au loisir et à la surveillance. Cette technologie procure une représentation vidéo d’un demi-espace par fusion des données d’image de plusieurs sous-espaces et est incompatible avec un traitement temps réel. Une fonction de détection et localisation est disponible dans certains systèmes. La portée d'utilisation obtenue avec cette technologie est au maximum de 200 à 300 mètres.Concerning the civil or industrial multi-sensor systems mentioned above, these also have the main function of delivering a video representation of a half-space and essentially group together cameras intended for leisure and surveillance. This technology provides a video representation of a half-space by merging image data from several sub-spaces and is incompatible with real-time processing. A detect and locate feature is available in some systems. The operating range obtained with this technology is a maximum of 200 to 300 meters.
Ainsi, la société chinoise INSTA360 INNOVATION TECH CO LTD, titulaire de la demande de brevet CN112837207A, commercialise une caméra destinée au loisir sous la marque INSTA360® PRO 2®. Cette caméra comporte quatre ou six capteurs d’image associés à des lentilles de type « fisheye ». Les capteurs sont tous agencés dans une même tranche de sphère, en étant disposés en cercle de façon régulière, avec un même écart angulaire entre deux capteurs voisins.Thus, the Chinese company INSTA360 INNOVATION TECH CO LTD, holder of patent application CN112837207A, markets a camera intended for leisure under the INSTA360® PRO 2® brand. This camera has four or six image sensors associated with “fisheye” type lenses. The sensors are all arranged in the same slice of sphere, being arranged in a circle in a regular manner, with the same angular difference between two neighboring sensors.
Par ailleurs, la société coréenne HANWHA TECHWIN CO LTD, titulaire de la demande de brevet coréen KR20210022973A, commercialise une caméra de surveillance de type « dôme » sous la marque WISENET® PNM-9080VQ®. La caméra comporte un capteur d’image central et trois capteurs d’image périphériques orientables manuellement. Les capteurs périphériques sont régulièrement répartis en cercle, avec un écart angulaire de 120° entre deux capteurs voisins, et sont tous agencés dans une même tranche de sphère. Cette tranche de sphère est perpendiculaire à un axe central de la caméra selon lequel est aligné le capteur central. Outre les inconvénients généraux susmentionnés pour cette catégorie de systèmes multi-capteurs, la mobilité angulaire des capteurs périphériques dans cette caméra introduit un facteur d’incertitude de positionnement qui ne peut qu’affecter la précision de localisation.Furthermore, the Korean company HANWHA TECHWIN CO LTD, holder of Korean patent application KR20210022973A, markets a "dome" type surveillance camera under the WISENET® PNM-9080VQ® brand. The camera has a central image sensor and three manually adjustable peripheral image sensors. The peripheral sensors are regularly distributed in a circle, with an angular difference of 120° between two neighboring sensors, and are all arranged in the same slice of sphere. This slice of sphere is perpendicular to a central axis of the camera along which the central sensor is aligned. Besides the general disadvantages mentioned above for this category of multi-sensor systems, the angular mobility of the peripheral sensors in this camera introduces a factor of positioning uncertainty which can only affect the localization accuracy.
Concernant les systèmes multi-capteurs militaires susmentionnés, ceux-ci sont conçus pour fonctionner dans le spectre infra-rouge et ne sont pas adaptés pour détecter des menaces sans signature thermique. La capacité de ces systèmes à détecter avec précision des menaces de petite taille avec une faible signature thermique, comme des drones aériens à propulsion électrique, est donc limitée. Les systèmes ARTEMIS® et SUMIT360® commercialisés respectivement par les groupes industriels THALES® et FLIR® font partie de cette catégorie de systèmes multi-capteurs.Regarding the aforementioned military multi-sensor systems, these are designed to operate in the infrared spectrum and are not suitable for detecting threats without thermal signatures. The ability of these systems to accurately detect small threats with a low heat signature, such as electrically powered aerial drones, is therefore limited. The ARTEMIS® and SUMIT360® systems marketed respectively by the industrial groups THALES® and FLIR® belong to this category of multi-sensor systems.
Il existe donc un besoin pour un système optronique hémisphérique de détection et localisation de menaces, notamment pour la lutte anti-drone, ne présentant pas les inconvénients susmentionnés de l’état de la technique et qui soit apte à assurer une fonction de détection et de localisation des menaces sur 2.pi stéradians, en temps réel avec une haute précision.There is therefore a need for a hemispherical optronic system for detecting and locating threats, in particular for the fight against drones, which does not have the aforementioned drawbacks of the state of the art and which is capable of providing a detection and localization of threats over 2.pi steradians, in real time with high precision.
L’invention concerne un système optronique hémisphérique de détection et localisation de menaces comprenant un module optronique et des moyens de traitement, le module optronique ayant une pluralité de caméras disposées de façon à couvrir un angle solide de 2.pi stéradians. Conformément à l’invention, les caméras sont de type identique et sont disposées de manière régulière et symétrique et les moyens de traitement assurent un traitement en temps réel et sont agencés de façon à assurer un premier niveau de traitement à large bande passante et un deuxième niveau de traitement à bande passante réduite, le premier niveau comprenant un traitement en parallèle des flux vidéo des caméras assurant des corrections géométriques, photométriques et une production d’informations de menace détectée, et le deuxième niveau comprenant un traitement de fusion et de filtrage des informations de menace détectée issues du premier niveau et une production d’informations de menace confirmée comprenant les coordonnées angulaires dans un repère géographique local de chaque menace confirmée.The invention relates to a hemispherical optronic system for detecting and locating threats comprising an optronic module and processing means, the optronic module having a plurality of cameras arranged so as to cover a solid angle of 2.pi steradians. According to the invention, the cameras are of identical type and are arranged in a regular and symmetrical manner and the processing means provide real-time processing and are arranged so as to provide a first level of wide-bandwidth processing and a second low-bandwidth processing level, the first level comprising parallel processing of the video streams from the cameras ensuring geometric and photometric corrections and production of detected threat information, and the second level comprising processing of fusion and filtering of the detected threat information from the first level and a production of confirmed threat information comprising the angular coordinates in a local geographical reference of each confirmed threat.
Selon une caractéristique particulière, les moyens de traitement temps réel comprennent des modules de traitement de signal de proximité intégrés dans les caméras et une unité centrale de traitement numérique, les modules de traitement de signal de proximité assurant au moins partiellement le premier niveau de traitement et l’unité centrale de traitement numérique assurant au moins partiellement le deuxième niveau de traitement.According to a particular characteristic, the real-time processing means comprise proximity signal processing modules integrated in the cameras and a central digital processing unit, the proximity signal processing modules at least partially providing the first level of processing and the digital central processing unit at least partially providing the second level of processing.
Selon une autre caractéristique particulière, le deuxième niveau de traitement à bande passante réduite réalisé par les moyens de traitement temps réel comprend également au moins une restitution vidéo pour au moins une caméra.According to another particular characteristic, the second level of reduced-bandwidth processing carried out by the real-time processing means also comprises at least one video playback for at least one camera.
L’invention prévoit ainsi une architecture de traitement à deux niveaux qui permet de garantir le temps réel. Le premier niveau traite en parallèle toutes les voies de détection avec la très large bande passante nécessaire pour traiter les flux vidéo des capteurs d’image. Le traitement regroupe des corrections géométriques, photométriques et la production des informations liées aux menaces détectées mais non confirmées à ce stade (vignettes, index), qui nécessitent une bande passante beaucoup plus faible. Le second niveau fusionne et traite les informations issues du premier niveau afin de filtrer les menaces détectées et de restituer uniquement les menaces confirmées, par le biais de leurs coordonnées angulaires dans un repère géographique local. Ce second niveau permet également la restitution vidéo d'une ou de plusieurs voies de détection.The invention thus provides for a two-level processing architecture which makes it possible to guarantee real time. The first level processes all the detection channels in parallel with the very wide bandwidth required to process the video streams from the image sensors. The processing includes geometric and photometric corrections and the production of information related to threats detected but not confirmed at this stage (thumbnail, index), which require much lower bandwidth. The second level merges and processes the information from the first level in order to filter the detected threats and to restore only the confirmed threats, through their angular coordinates in a local geographical reference. This second level also allows the video restitution of one or more detection channels.
Selon encore une autre caractéristique particulière, la disposition régulière et symétrique des caméras satisfait à la théorie mathématique dite du « pavage de la sphère » avec des pavés de forme identique.According to yet another particular characteristic, the regular and symmetrical arrangement of the cameras satisfies the mathematical theory known as the “tiling of the sphere” with tiles of identical shape.
Selon encore une autre caractéristique particulière, les caméras sont agencées sur des première et deuxième tranches de sphère parallèles, un premier groupe de caméras étant agencées dans la première tranche de sphère et un deuxième groupe caméras étant agencées dans la deuxième tranche de sphère, avec le diamètre de la première tranche étant supérieur à celui de la deuxième tranche.According to yet another particular characteristic, the cameras are arranged on first and second parallel sphere slices, a first group of cameras being arranged in the first sphere slice and a second camera group being arranged in the second sphere slice, with the diameter of the first slice being greater than that of the second slice.
Selon encore une autre caractéristique particulière, le premier groupe comprend huit caméras et le second groupe comprend quatre caméras.According to yet another particular characteristic, the first group comprises eight cameras and the second group comprises four cameras.
Selon encore une autre caractéristique particulière, le module optronique comprend une structure mécanique porteuse monobloc sur laquelle les caméras sont montées de manière fixe.According to yet another particular characteristic, the optronic module comprises a one-piece mechanical support structure on which the cameras are mounted in a fixed manner.
Selon encore une autre caractéristique particulière, outre le module de traitement de signal de proximité, chaque caméra comprend un dispositif optique de prise de vue à focale fixe de grande ouverture, de haute résolution et compensé en température qui est associé à un capteur d’image de la caméra.According to yet another particular characteristic, in addition to the proximity signal processing module, each camera comprises a large-aperture, high-resolution and temperature-compensated fixed focal length optical pickup device which is associated with an image sensor of the camera.
Selon encore une autre caractéristique particulière, les caméras comprennent un capteur d’image de type dit « CMOS ».According to yet another particular characteristic, the cameras comprise a so-called “CMOS” type image sensor.
L’invention concerne aussi un ensemble de deux systèmes tels que décrits brièvement ci-dessus qui sont reliés par une liaison de communication de type filaire, hertzienne ou optique.The invention also relates to a set of two systems as described briefly above which are connected by a communication link of the wired, radio or optical type.
L’invention propose ainsi une architecture nouvelle ayant une pluralité de voies de détection de très hautes performances organisées en une structure parallèle. Le système optronique fournit les données de localisation des menaces détectées avec un minimum de latence. L’exploitation des données vidéo produites par les caméras nécessite une bande passante très importante. C’est la raison pour laquelle l’invention prévoit une exploitation en parallèle des données vidéo notamment pour les traitements d’amélioration, de calibration (géométrique, photométrique et colorimétrique) et de détection. De préférence, aucun fusionnement de secteurs d’angle solide (correspondant aux voies de détection) n’est réalisé pour la restitution. L’invention prévoit une restitution individuelle des secteurs, ce qui apporte une aide à la décision accrue.The invention thus proposes a new architecture having a plurality of very high performance detection channels organized in a parallel structure. The optronic system provides location data for detected threats with minimal latency. The exploitation of the video data produced by the cameras requires a very high bandwidth. This is the reason why the invention provides parallel exploitation of video data, in particular for enhancement, calibration (geometric, photometric and colorimetric) and detection processing. Preferably, no merging of solid angle sectors (corresponding to the detection channels) is carried out for the restitution. The invention provides for individual restitution of the sectors, which provides increased decision support.
D’autres caractéristiques et avantages de la présente invention apparaîtront plus clairement à la lecture de la description détaillée ci-dessous de plusieurs formes de réalisation particulières de l’invention, en référence aux dessins annexés, dans lesquels :Other characteristics and advantages of the present invention will appear more clearly on reading the detailed description below of several particular embodiments of the invention, with reference to the appended drawings, in which:
En référence aux Figs.1 à 10, il est maintenant décrit ci-dessous une forme de réalisation particulière SO du système optronique hémisphérique de détection et localisation de menaces selon l’invention.With reference to Figs. 1 to 10, a particular embodiment SO of the hemispherical optronic threat detection and localization system according to the invention is now described below.
Comme il apparait plus clairement aux Figs.1 et 2, le système optronique SO se présente extérieurement sous la forme générale d’une demi-sphère à l’intérieur de laquelle sont logés les différents organes fonctionnels du système. Le système optronique SO comprend un boîtier formant base BO et un couvercle CO en forme de demi-sphère.As it appears more clearly in Figs.1 and 2, the SO optronic system appears externally in the general form of a half-sphere inside which are housed the various functional organs of the system. The optronic system SO comprises a housing forming a base BO and a cover CO in the form of a half-sphere.
Le boîtier BO renferme une unité centrale de traitement numérique UC, montrée à la
Le boîtier BO supporte le montage fixe de douze caméras V1 à V12, bien visibles à la
Les caméras V1 à V12 sont montées fixes sur une structure mécanique porteuse (non représentée) du module optronique. Typiquement, cette structure mécanique porteuse est réalisée sous la forme d’une pièce monobloc, avec des précisions mécaniques standards, ce qui est économiquement avantageux. Comme représenté schématiquement à la
Comme visible aux Figs.1 et 2, le couvercle CO comporte douze hublots (non repérées) pour les champs de vision des douze caméras V1 à V12, respectivement, aménagés en correspondance avec les optiques de prise de vue de celles-ci.As visible in Figs.1 and 2, the cover CO comprises twelve portholes (not marked) for the fields of vision of the twelve cameras V1 to V12, respectively, arranged in correspondence with the shooting optics thereof.
De manière générale, dans un système optronique selon l’invention, les caméras de haute résolution sont nécessaires pour obtenir un nombre important de pixels par stéradian et garantir la précision de la détection des menaces.In general, in an optronic system according to the invention, high resolution cameras are necessary to obtain a large number of pixels per steradian and guarantee the accuracy of threat detection.
Dans le système optronique SO, les capteurs d’image CI1 à CI12 ont été choisis de type « CMOS », avec une taille (résolution d’image) importante, de préférence disponible sur catalogue pour un moindre coût. Ainsi, par exemple, un capteur d’image « CMOS » de technologie « 8K » disponible sur catalogue et fournissant une image de 8192x4320 pixels pourra être choisi pour les capteurs d’image CI1 à CI12. De plus, on notera que la conversion analogique/numérique intégrée dans les capteurs d’image CI1 à CI12 de type « CMOS » procure une excellente immunité contre les rayonnements électromagnétiques, malgré le nombre élevé (12) d’hublots nécessaires pour les caméras V1 à V12. Bien entendu, des capteurs d’image autres que des capteurs de type « CMOS » pourront être choisis dans certaines formes de réalisation particulières de l’invention, par exemple pour satisfaire à des contraintes spécifiques.In the SO optronic system, the image sensors CI1 to CI12 have been chosen of the "CMOS" type, with a large size (image resolution), preferably available on catalog for a lower cost. Thus, for example, an "8K" technology "CMOS" image sensor available in the catalog and providing an image of 8192x4320 pixels may be chosen for the CI1 to CI12 image sensors. In addition, it should be noted that the analog/digital conversion integrated in the “CMOS” type image sensors CI1 to CI12 provides excellent immunity against electromagnetic radiation, despite the high number (12) of windows required for the V1 cameras. at V12. Of course, image sensors other than “CMOS” type sensors could be chosen in certain particular embodiments of the invention, for example to satisfy specific constraints.
Les optiques OP1 à OP12 doivent être adaptées pour les capteurs d’image CI1 à CI12 qui sont de grand format, typiquement supérieur à 40 mm. Elles sont donc volumineuses. Par ailleurs, l’exploitation de la résolution en pixel sur tout le champ de vision des capteurs d’image CI1 à CI12 impose que les optiques OP1 à OP12 soient de grande qualité. Des optiques de type à focale et iris fixes, avec une grande ouverture et une haute résolution et résistantes aux chocs mécaniques ont été choisies pour les optiques OP1 à OP12. La mise au point des optiques OP1 à OP12 est optimisée pour des menaces comprises dans une plage de distances déterminée, par exemple, entre 20 m et 1000 m, et doit être maintenue fixe sur une plage de températures étendue pour garantir l’obtention des performances voulues. Pour cela, les optiques OP1 à OP12 sont munies chacune d’un dispositif de compensation de focalisation statique. Le comportement en température de optiques OP1 à OP12 ayant été caractérisé préalablement, les dispositifs de compensation de focalisation statique sont calibrés en conséquence.The OP1 to OP12 optics must be suitable for the CI1 to CI12 image sensors which are large format, typically greater than 40 mm. They are therefore bulky. Furthermore, the exploitation of the pixel resolution over the entire field of vision of the image sensors CI1 to CI12 requires that the optics OP1 to OP12 be of high quality. Fixed focal length and iris type optics, with a large aperture and high resolution and resistant to mechanical shocks have been chosen for the OP1 to OP12 optics. The focus of OP1 to OP12 optics is optimized for threats within a specified distance range, for example, 20m to 1000m, and must be kept fixed over a wide temperature range to ensure performance is achieved. wanted. For this, the optics OP1 to OP12 are each equipped with a static focusing compensation device. The temperature behavior of optics OP1 to OP12 having been characterized beforehand, the static focusing compensation devices are calibrated accordingly.
Les modules de traitement numérique de proximité M1 à M12 des caméras V1 à V12 comprennent un logiciel embarqué qui réalise essentiellement des traitements en temps réel de détection et d’amélioration de l’image, et notamment des corrections géométriques et des traitements d’harmonisation. Typiquement, les modules M1 à M12 sont réalisés chacun avec un circuit prédiffusé programmable dit « FPGA » (par exemple de type Kintex® Ultrascale®) associé à une mémoire vive dynamique « DDR4 » de très grande bande passante, par exemple, supérieure à 10Gb/s. En effet, la bande passante de la mémoire « DDR4 » doit être importante pour la réalisation des traitements temps réel requis et la restitution temps réel des flux vidéo.The M1 to M12 digital proximity processing modules of the V1 to V12 cameras include on-board software that essentially performs real-time image detection and enhancement processing, and in particular geometric corrections and harmonization processing. Typically, the modules M1 to M12 are each made with a programmable gate circuit called “FPGA” (for example of the Kintex® Ultrascale® type) associated with a “DDR4” dynamic random access memory of very high bandwidth, for example, greater than 10Gb /s. Indeed, the bandwidth of the "DDR4" memory must be high for the performance of the required real-time processing and the real-time restitution of the video streams.
En référence aux Figs.1 à 6, les caméras V1 à V12 sont disposées géométriquement de manière régulière et symétrique, afin de couvrir de façon optimale un angle solide total de 2.pi stéradians. Chacune des caméras V1 à V12 assure la couverture d’un secteur d’angle solide de la demi-sphère. La disposition géométrique des caméras V1 à V12 autorise des voies de détection de menace distinctes identiques qui peuvent être clonées, garantit l’obtention de performances de précision élevées (résolution spatiale), avec un traitement en parallèle et en temps réel des données d’image, et permet d’optimiser le volume et le coût du système optronique SO.With reference to Figs.1 to 6, the cameras V1 to V12 are arranged geometrically in a regular and symmetrical manner, in order to optimally cover a total solid angle of 2.pi steradians. Each of the cameras V1 to V12 provides coverage of a solid corner sector of the hemisphere. The geometric layout of the V1 to V12 cameras allows identical distinct threat detection paths that can be cloned, guarantees the achievement of high precision performance (spatial resolution), with parallel and real-time processing of image data , and makes it possible to optimize the volume and the cost of the SO optronic system.
Comme mieux visible aux Figs.4 à 6, les caméras V1 à V12, montrées sans leurs optiques OP1 à OP12 aux Figs.5 et 6, sont agencées sur deux niveaux superposés, à savoir, sur des première et deuxième tranches de sphère parallèles TS1 et TS2, avec le diamètre de la première tranche TS1 étant supérieur à celui de la deuxième tranche TS2.As better visible in Figs.4 to 6, the cameras V1 to V12, shown without their optics OP1 to OP12 in Figs.5 and 6, are arranged on two superimposed levels, namely, on first and second slices of parallel sphere TS1 and TS2, with the diameter of the first slice TS1 being greater than that of the second slice TS2.
Dans la première tranche de sphère TS1, les huit caméras V1 à V8 sont réparties de manière régulière et symétrique avec un écart angulaire EA1 projeté sur un plan horizontal de 45° entre deux caméras directement voisines (cf.
Dans la deuxième tranche de sphère TS2, les quatre caméras V9 à V12 sont réparties de manière régulière et symétrique avec un écart angulaire EA2 projeté sur un plan horizontal de 90° entre deux caméras directement voisines (cf.
En vue de dessus, comme montré à la
Ainsi, en considérant un premier plan central de symétrie PC1, les caméras V7, V12, V9 et V2 et les caméras V6, V11, V10 et V3 apparaissent comme étant alignées respectivement dans des premiers plans parallèles P1 et P2 qui sont symétriques par rapport au premier plan central PC1. Les caméras V8 et V1 et les caméras V5 et V4 apparaissent comme étant alignées respectivement dans d’autres premiers plans parallèles P3 et P4 qui sont symétriques par rapport au premier plan central PC1 et plus éloignés de ce dernier que les premiers plans parallèles P1 et P2. De plus, en considérant un deuxième plan central de symétrie PC2 perpendiculaire au premier plan central PC1, les caméras V8, V12, V11 et V5 et les caméras V1, V9, V10 et V4 apparaissent comme étant alignées respectivement dans des deuxièmes plans parallèles P5 et P6 qui sont symétriques par rapport au deuxième plan central PC2. Les caméras V7 et V6 et les caméras V2 et V3 apparaissent comme étant alignées respectivement dans d’autres deuxièmes plans parallèles P7 et P8 qui sont symétriques par rapport au deuxième plan central PC2 et plus éloignés de ce dernier que les deuxièmes plans parallèles P5 et P6.Thus, by considering a first central plane of symmetry PC1, the cameras V7, V12, V9 and V2 and the cameras V6, V11, V10 and V3 appear as being aligned respectively in the first parallel planes P1 and P2 which are symmetrical with respect to the central foreground PC1. The cameras V8 and V1 and the cameras V5 and V4 appear as being aligned respectively in other first parallel planes P3 and P4 which are symmetrical with respect to the first central plane PC1 and more distant from the latter than the first parallel planes P1 and P2 . Moreover, by considering a second central plane of symmetry PC2 perpendicular to the first central plane PC1, the cameras V8, V12, V11 and V5 and the cameras V1, V9, V10 and V4 appear as being aligned respectively in second parallel planes P5 and P6 which are symmetrical with respect to the second central plane PC2. The cameras V7 and V6 and the cameras V2 and V3 appear as being aligned respectively in other second parallel planes P7 and P8 which are symmetrical with respect to the second central plane PC2 and further from the latter than the second parallel planes P5 and P6 .
Conformément à l’invention, la configuration géométrique optimale du système optronique SO, avec les caméras V1 à V12, a été déterminée à l’aide de la théorie mathématique du pavage de la sphère avec des pavés de forme identique, et avec les données d'entrée suivantes :In accordance with the invention, the optimal geometric configuration of the optronic system SO, with the cameras V1 to V12, was determined using the mathematical theory of the tiling of the sphere with tiles of identical shape, and with the data from following entry:
- Voies de détection identiques ;- Identical detection channels;
- Symétrie dans la répartition des voies de détection ;- Symmetry in the distribution of detection channels;
- Caméras avec des capteurs d’image de type « CMOS » ayant une résolution d’image disponible sur catalogue ;- Cameras with "CMOS" type image sensors with an image resolution available in the catalogue;
- Volume défini du système optronique ;- Defined volume of the optronic system;
- Absence de réglages des ensembles de capteurs d’image et optiques de prise de vue associées dans les caméras ;- Absence of adjustments to the sets of image sensors and associated shooting optics in the cameras;
- Structure mécanique porteuse des caméras de type monobloc et réalisée avec des précisions standards.- Mechanical structure carrying monobloc type cameras and produced with standard precision.
Le volume du système optronique SO est défini par un diamètre de 500 mm et une hauteur de 500 mm. Les capteurs d’image de type « CMOS » qui ont été choisis ont une taille effective de 60 Mpx (mégapixels), ce qui donne une taille utile supérieure à 40 Mpx. Les voies de détection ont chacune un champ utile de 50°x50°. La masse du système optronique SO est inférieure à 20 kg.The volume of the SO optronic system is defined by a diameter of 500 mm and a height of 500 mm. The "CMOS" type image sensors that were chosen have an effective size of 60 Mpx (megapixels), which gives a useful size greater than 40 Mpx. The detection channels each have a useful field of 50°x50°. The mass of the SO optronic system is less than 20 kg.
Dans l’architecture générale décrite ci-dessus du module optronique du système SO de l’invention, les organes fonctionnels optiques et électroniques de celui-ci sont statiques. Il en résulte que le module optronique du système SO de l’invention bénéficie d’une excellente robustesse au stress mécanique, ce qui facilite notamment la tenue des référentiels. Par ailleurs, le coût du module optronique est optimisé grâce notamment à l’utilisation des capteurs d’image susmentionnés de type « CMOS » disponibles sur catalogue, et donc sans développement spécifique, de la structure mécanique porteuse monobloc avec des précisions standards et de la conception choisie sans réglage des ensembles de capteurs d’image et optiques de prise de vue.In the general architecture described above of the optronic module of the SO system of the invention, the optical and electronic functional organs thereof are static. As a result, the optronic module of the SO system of the invention benefits from excellent robustness to mechanical stress, which in particular facilitates the holding of the reference frames. Furthermore, the cost of the optronic module is optimized thanks in particular to the use of the above-mentioned “CMOS” type image sensors available in the catalogue, and therefore without specific development, of the one-piece supporting mechanical structure with standard accuracies and the chosen design without adjusting the sets of image sensors and shooting optics.
Par ailleurs, on notera que le système optronique de l’invention pourra être décliné en plusieurs configurations pour des champs d'observation réduit, du fait de la symétrie dans la répartition des voies de détection. Ainsi, par exemple, la surveillance de pi/2 stéradians, 2pi/3 stéradians ou pi stéradians pourra être assurée respectivement avec une configuration à trois voies, une configuration à quatre voies et une configuration à six voies.Furthermore, it should be noted that the optronic system of the invention can be declined in several configurations for reduced fields of observation, due to the symmetry in the distribution of the detection channels. Thus, for example, the monitoring of pi/2 steradians, 2pi/3 steradians or pi steradians could be ensured respectively with a three-channel configuration, a four-channel configuration and a six-channel configuration.
En référence maintenant plus particulièrement à la
- F1_UC : Commande des caméras V1 à V12, formées chacune d’un capteur d’image CI1 à CI12, d’une optique OP1 à OP12 et d’un module de traitement de signal de proximité M1 à M12 ;- F1_UC: Control of cameras V1 to V12, each consisting of an image sensor CI1 to CI12, optics OP1 to OP12 and a proximity signal processing module M1 to M12;
- F2_UC : Gestion de la synchronisation des voies de détection V1d à V12d ;- F2_UC: Management of synchronization of detection channels V1d to V12d;
- F3_UC : Calage spatial et temporel des voies de détection V1d à V12d ;- F3_UC: Spatial and temporal setting of detection channels V1d to V12d;
- F4_UC : Poursuite 2D des menaces détectées ;- F4_UC: 2D tracking of detected threats;
- F5_UC : Poursuite 3D des menaces détectées (sur des données émanant de l’association de deux systèmes optroniques selon l’invention, et éventuellement d’un autre système fournissant la distance à laquelle se trouve les menaces) ;- F5_UC: 3D tracking of detected threats (on data emanating from the association of two optronic systems according to the invention, and possibly from another system providing the distance at which the threats are located);
- F6_UC : Restitution vidéo à la demande, en simultané, des douze secteurs angulaires correspondant aux voies de détection V1d à V12d ;- F6_UC: Video playback on demand, simultaneously, of the twelve angular sectors corresponding to the detection channels V1d to V12d;
- F7_UC : Gestion des interfaces de communication (C2, IHM), des dialogues et des échanges de données ;- F7_UC: Management of communication interfaces (C2, HMI), dialogues and data exchanges;
- F8_UC : Gestion de la conversion d’énergie, la distribution d’énergie et la gestion de la charge des batteries électriques du système optronique.- F8_UC: Management of energy conversion, energy distribution and management of the charge of the electric batteries of the optronic system.
Dans le système optronique SO, concernant les fonctions F2_UC et F3_UC, la cohérence temporelle entre les voies de détection V1d à V12d doit être garantie pour assurer une poursuite précise. Cela implique une synchronisation des prises d’images (début et durée de pose). Suivant les vitesses relatives observées des menaces, les caméras V1 à V12 pourront être autorisées à réaliser ou pas des poses différentes. Une perte de cohérence de durée de pose pourra être acceptée si les flous de bougé ne remettent pas en cause la détermination des coordonnées pour la poursuite.In the optronic system SO, concerning the functions F2_UC and F3_UC, the temporal coherence between the detection channels V1d to V12d must be guaranteed to ensure precise tracking. This implies a synchronization of the image captures (start and duration of exposure). Depending on the observed relative speeds of the threats, the cameras V1 to V12 may or may not be authorized to perform different poses. A loss of exposure duration consistency may be accepted if the motion blurs do not call into question the determination of the coordinates for tracking.
Outre les interfaces susmentionnées C2 et IHM, le bus de restitution vidéo VID et la liaison d’alimentation en énergie PW correspondant respectivement aux connecteurs CN1 à CN4 susmentionnés, l’unité centrale de traitement numérique UC pourra également gérer d’autres interfaces de communication, bus et autres, selon les formes de réalisation du système optronique de l’invention. Ainsi, par exemple, lorsque le système optronique SO est conçu pour être associé à un autre système optronique analogue de l’invention, désigné SO’ par la suite, pour une poursuite 3D des menaces détectées (fonction F5_UC), des moyens de connectivité supplémentaires sont prévus pour la communication de données entre ces deux systèmes SO, SO’, typiquement via une liaison filaire spécifique, ou via une liaison hertzienne ou optique.In addition to the aforementioned interfaces C2 and IHM, the video reproduction bus VID and the power supply link PW corresponding respectively to the aforementioned connectors CN1 to CN4, the central digital processing unit UC will also be able to manage other communication interfaces, bus and others, according to the embodiments of the optronic system of the invention. Thus, for example, when the optronic system SO is designed to be associated with another analog optronic system of the invention, designated SO' hereafter, for 3D tracking of detected threats (function F5_UC), additional connectivity means are provided for data communication between these two systems SO, SO′, typically via a specific wired link, or via a radio or optical link.
Lorsque deux systèmes optroniques SO et SO’ coopèrent, l’unité centrale de traitement numérique UC du système maître gère les communications de données en temps réel entre les deux systèmes. Les données échangées en temps réel entre les systèmes optroniques SO et SO’, permettent notamment de garantir la cohérence temporelle entre les deux systèmes et les échanges de géolocalisation nécessaires au couplage et à la triangulation. L’unité centrale de traitement numérique UC exploite les données de détection des deux fois douze (2 x 12) voies de détection, soit les données des vingt-quatre (24) secteurs angulaires couverts au total par les deux systèmes SO, SO’, de façon à réaliser un filtrage de menaces potentielles retenues. Un filtrage final est réalisé à l’aide d’algorithmes exécutés directement par le processeur « CPU » (pour « Central Processing Unit ») de l’unité UC.When two optronic systems SO and SO' cooperate, the central digital processing unit UC of the master system manages the real-time data communications between the two systems. The data exchanged in real time between the optronic systems SO and SO', in particular make it possible to guarantee temporal consistency between the two systems and the exchanges of geolocation necessary for coupling and triangulation. The central digital processing unit UC uses the detection data of the two times twelve (2 x 12) detection channels, i.e. the data of the twenty-four (24) angular sectors covered in total by the two systems SO, SO', so as to carry out a filtering of potential threats retained. A final filtering is carried out using algorithms executed directly by the “CPU” processor (for “Central Processing Unit”) of the UC unit.
Les Figs.8 et 9 montrent une architecture de traitement numérique du système optronique SO.Figs.8 and 9 show a digital processing architecture of the SO optronic system.
La
Comme montré à la
Le bloc B1a réalise un traitement de correction géométrique sur les données vidéo d’entrée E0 délivrées par le capteur d’image CIn. Des corrections géométriques intrinsèques sont réalisées sur les données vidéo d’entrée E0 en fonction de données de calibration prédéfinies E1 dites « données de calibration usine ».Block B1a carries out geometric correction processing on the input video data E0 delivered by the image sensor CIn. Intrinsic geometric corrections are performed on the input video data E0 according to predefined calibration data E1 called “factory calibration data”.
Le bloc B2a réalise un traitement de conversion dans un repère géographique local des données vidéo issues du bloc B1a, à partir de données d’altitude E2 fournies par des capteurs d’altitude internes du système optronique SO.Block B2a carries out a conversion processing in a local geographical reference of the video data coming from block B1a, from altitude data E2 provided by internal altitude sensors of the optronic system SO.
Le bloc B3a réalise un traitement d’harmonisation photométrique dynamique sur les données vidéo issues du bloc B2a, à partir de données de luminance et chrominance E3 des autres voies de détection. Ces données de luminance et chrominance E3 sont fournies typiquement par un modèle numérique d’estimation.Block B3a performs dynamic photometric harmonization processing on the video data from block B2a, using luminance and chrominance data E3 from the other detection channels. These E3 luminance and chrominance data are typically provided by a numerical estimation model.
Les blocs B4a à B6a traitent les données vidéo pour délivrer des données de sortie de pistes de menace détectées PMn(CA, IX) incluant des coordonnées angulaires CA et des vignettes IX. Le bloc B4a réalise un traitement d’amélioration d’image sur les données vidéo issues du bloc B3a, en vue d’un traitement ultérieur de détection automatique de piste de menace. Le bloc B5a réalise le traitement de détection automatique de piste de menace à partir des données vidéo améliorées fournies par le bloc B4a. Le bloc B6a effectue un filtrage 2D sur les pistes de menace détectées automatiquement par le bloc B5a et délivre les données de sortie PMn(CA, IX) susmentionnées.Blocks B4a to B6a process the video data to deliver detected threat track output data PMn(CA, IX) including angular coordinates CA and vignettes IX. Block B4a performs image enhancement processing on the video data from block B3a, with a view to subsequent processing for automatic threat track detection. Block B5a performs the automatic threat track detection processing from the enhanced video data provided by block B4a. Block B6a performs 2D filtering on the threat tracks detected automatically by block B5a and delivers the aforementioned output data PMn(CA, IX).
Les blocs B7a et B8a effectuent un traitement de restitution vidéo pour la voie de détection Vnd et délivre en sortie la restitution vidéo VIDn correspondante. Le bloc B7a réalise un traitement d’amélioration d’image sur les données vidéo issues du bloc B3a, en vue de la visualisation sur écran de celles-ci. Le bloc B8a assure des fonctions d’adaptation et conversion des données vidéo au format souhaité pour la restitution vidéo VIDn.Blocks B7a and B8a perform a video restitution processing for the detection channel Vnd and outputs the corresponding video restitution VIDn. Block B7a performs image enhancement processing on the video data from block B3a, with a view to displaying them on screen. Block B8a provides functions for adapting and converting video data to the desired format for video restitution VIDn.
La
Comme montré à la
Le bloc B1b réalise en premier lieu un traitement de fusion et de filtrage des données de pistes de menace PM1 à PM12 fournies en entrée par les traitements TLB des douze voies de détection V1d à V12d. Sur les données filtrées de pistes de menace, le bloc B1b réalise un traitement de poursuite multi-voies de pistes de menace filtrées et délivre en sortie des données de pistes de menace retenues PMF(CA, IX) incluant des coordonnées angulaires CA et des vignettes IX. Les données de pistes de menace retenues PMF(CA, IX) sont fournies aux blocs B2b et B3b.Block B1b first carries out a processing of fusion and filtering of the threat track data PM1 to PM12 supplied as input by the processings TLB of the twelve detection channels V1d to V12d. On the filtered data of threat tracks, the block B1b carries out a multi-path tracking processing of filtered threat tracks and outputs data of retained threat tracks PMF(CA, IX) including angular coordinates CA and vignettes IX. The retained threat track data PMF(CA, IX) are provided at blocks B2b and B3b.
Le bloc B2b réalise un traitement de génération d’alarme. Des alarmes générées AL sont associées aux données de pistes de menace retenues PMF(CA, IX) et délivrées en sortie avec ces données PMF(CA, IX).Block B2b performs alarm generation processing. Generated alarms AL are associated with the retained threat track data PMF(CA, IX) and output with this data PMF(CA, IX).
Le bloc B3b reçoit en entrée les données de restitution vidéo VID1 à VID12 fournies par les traitements TLB des douze voies de détection V1d à V12d, ainsi que les données de pistes de menace retenues PMF(CA, IX) fournies par le bloc B1b. Dans le bloc B3b, un traitement de superposition est effectué sur les données vidéo VID1 à VID12 de façon à y intégrer par superposition les données de pistes de menace retenues PMF. Le bloc B4b autorise une sélection des voies de détection dont la diffusion des données vidéo avec les données de pistes de menace retenues superposées est demandée par une commande de sélection CS. Les données vidéo VID_VS des voies de détection sélectionnées sont délivrées en sortie par le bloc B4b.The block B3b receives as input the video restitution data VID1 to VID12 provided by the TLB processings of the twelve detection channels V1d to V12d, as well as the retained threat track data PMF(CA, IX) provided by the block B1b. In block B3b, an overlay processing is carried out on the video data VID1 to VID12 so as to integrate therein by overlay the selected threat track data PMF. The block B4b authorizes a selection of the detection channels for which the broadcasting of the video data with the threat track data retained superimposed is requested by a selection command CS. The video data VID_VS of the selected detection channels are output by block B4b.
La configuration de traitement décrite ci-dessus du système optronique SO, en référence plus particulièrement aux Figs.8 et 9, est apte à assurer des traitements avec notamment les caractéristiques suivantes :The processing configuration described above of the optronic system SO, with more particular reference to Figs.8 and 9, is capable of providing processing with in particular the following characteristics:
- Débit du flux numérique : 140 Gb/s de flux temps réel à traiter ;- Digital flow rate: 140 Gb/s of real-time flow to be processed;
- Traitement jusqu’à 120 pistes de menace en parallèle ;- Processing up to 120 threat tracks in parallel;
- Fréquence de rafraîchissement des pistes de menace : 10 Hz ;- Threat track refresh rate: 10 Hz;
- Restitution des vidéos des 12 voies V1d à V12d avec la superposition des menaces ;- Restitution of the videos of the 12 channels V1d to V12d with the superimposition of the threats;
- Portée d’utilisation de 1 km pour des menaces de taille de l’ordre de 30 x 30 cm.- Range of use of 1 km for threats of the order of 30 x 30 cm.
La
Comme montré à la
Les blocs B1c, B1c’, réalisent chacun en premier lieu un traitement de filtrage des données de pistes de menace PM1 à PM12, PM1’ à PM12’, respectivement. Sur les données filtrées de pistes de menace, les blocs B1c, B1c’, réalisent chacun un traitement de poursuite multi-voies de pistes de menace filtrées et délivrent en sortie des données de pistes de menace retenues PMF(CA, IX), PMF’(CA, IX), respectivement, de manière similaire au bloc B1b du traitement TBR (cf.
Le bloc B2c réalise un traitement d’harmonisation sur les données des deux systèmes optroniques SO et SO’, à savoir, essentiellement sur les données de pistes de menace retenues PMF(CA, IX), PMF’(CA, IX). Sur les données délivrées en sortie par le bloc B2c, le bloc B3c détermine des menaces potentielles MC et réalise un traitement d’estimation de distance par triangulation qui fournit des distances auxquelles se trouvent les menaces MC par rapport à un point de référence. Le bloc B3c transmet au bloc B4c, les données de menaces MC avec leurs distances estimées D. Le bloc B4c réalise un traitement de comparaison et cohérence entre les données reçues du bloc B3c et celles susmentionnées E4 reçues d’un ou plusieurs autres systèmes de façon à détecter et rejeter des fausses alarmes. Le bloc B4c délivre en sortie des alarmes AL et des données de menaces confirmées MC (GL, IX) avec les géolocalisations CL et les vignettes IX correspondantes.Block B2c carries out harmonization processing on the data of the two optronic systems SO and SO', namely, essentially on the data of the selected threat tracks PMF(CA, IX), PMF'(CA, IX). On the data output by the block B2c, the block B3c determines potential threats MC and performs distance estimation processing by triangulation which provides distances at which the threats MC are located with respect to a reference point. Block B3c transmits to block B4c the threat data MC with their estimated distances D. Block B4c performs a comparison and consistency processing between the data received from block B3c and the aforementioned data E4 received from one or more other systems in a to detect and reject false alarms. Block B4c outputs alarms AL and confirmed threat data MC (GL, IX) with geolocations CL and corresponding thumbnails IX.
L’invention ne se limite pas aux formes de réalisation particulières qui ont été décrites ici à titre d’exemple. L’homme du métier, selon les applications de l’invention, pourra apporter différentes modifications et variantes entrant dans le champ de protection de l’invention.The invention is not limited to the particular embodiments which have been described here by way of example. The person skilled in the art, depending on the applications of the invention, may make various modifications and variants falling within the scope of protection of the invention.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/FR2022/051751 WO2023041884A1 (en) | 2021-09-17 | 2022-09-16 | Hemispherical optronic system for detecting and locating threats, employing real-time processing |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2109795 | 2021-09-17 | ||
FR2109795A FR3127353A1 (en) | 2021-09-17 | 2021-09-17 | HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3127297A1 true FR3127297A1 (en) | 2023-03-24 |
Family
ID=83188416
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2109795A Pending FR3127353A1 (en) | 2021-09-17 | 2021-09-17 | HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING |
FR2205175A Pending FR3127297A1 (en) | 2021-09-17 | 2022-05-30 | HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2109795A Pending FR3127353A1 (en) | 2021-09-17 | 2021-09-17 | HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING |
Country Status (1)
Country | Link |
---|---|
FR (2) | FR3127353A1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140104428A1 (en) * | 2007-11-30 | 2014-04-17 | Searidge Technologies Inc. | Airport target tracking system |
US20170013193A1 (en) * | 2014-02-26 | 2017-01-12 | Ecole Polytechnique Federale De Lausanne (Epfl) | Large Field of View Multi-Camera Endoscopic Apparatus with Omni-Directional Illumination |
US20170083788A1 (en) * | 2015-09-23 | 2017-03-23 | Qualcomm Incorporated | Systems and methods for incremental object detection using dual-threshold local binary pattern operators |
CN106851070A (en) * | 2017-03-13 | 2017-06-13 | 北京智造宝科技有限公司 | A kind of three dimensional face scanner with monitoring camera |
US20180341278A1 (en) * | 2017-01-23 | 2018-11-29 | Hangzhou Zero Zero Technology Co., Ltd | Multi-camera system and method of use |
WO2020204893A1 (en) * | 2019-03-29 | 2020-10-08 | A^3 By Airbus, Llc | Multiplex processing of image sensor data for sensing and avoiding external objects |
US20210058556A1 (en) * | 2019-08-21 | 2021-02-25 | Hanwha Techwin Co., Ltd. | Multi-camera apparatus and image capturing system including the same |
CN112837207A (en) | 2019-11-25 | 2021-05-25 | 影石创新科技股份有限公司 | Panoramic depth measuring method, four-eye fisheye camera and binocular fisheye camera |
-
2021
- 2021-09-17 FR FR2109795A patent/FR3127353A1/en active Pending
-
2022
- 2022-05-30 FR FR2205175A patent/FR3127297A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140104428A1 (en) * | 2007-11-30 | 2014-04-17 | Searidge Technologies Inc. | Airport target tracking system |
US20170013193A1 (en) * | 2014-02-26 | 2017-01-12 | Ecole Polytechnique Federale De Lausanne (Epfl) | Large Field of View Multi-Camera Endoscopic Apparatus with Omni-Directional Illumination |
US20170083788A1 (en) * | 2015-09-23 | 2017-03-23 | Qualcomm Incorporated | Systems and methods for incremental object detection using dual-threshold local binary pattern operators |
US20180341278A1 (en) * | 2017-01-23 | 2018-11-29 | Hangzhou Zero Zero Technology Co., Ltd | Multi-camera system and method of use |
CN106851070A (en) * | 2017-03-13 | 2017-06-13 | 北京智造宝科技有限公司 | A kind of three dimensional face scanner with monitoring camera |
WO2020204893A1 (en) * | 2019-03-29 | 2020-10-08 | A^3 By Airbus, Llc | Multiplex processing of image sensor data for sensing and avoiding external objects |
US20210058556A1 (en) * | 2019-08-21 | 2021-02-25 | Hanwha Techwin Co., Ltd. | Multi-camera apparatus and image capturing system including the same |
KR20210022973A (en) | 2019-08-21 | 2021-03-04 | 한화테크윈 주식회사 | Multi camera apparatus and photography system having the same |
CN112837207A (en) | 2019-11-25 | 2021-05-25 | 影石创新科技股份有限公司 | Panoramic depth measuring method, four-eye fisheye camera and binocular fisheye camera |
Also Published As
Publication number | Publication date |
---|---|
FR3127353A1 (en) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2017203227B2 (en) | Wide-field of view (FOV) imaging devices with active foveation capability | |
US10070055B2 (en) | Devices and methods for optically multiplexed imaging | |
US9445018B2 (en) | Imaging systems with phase detection pixels | |
US20170139131A1 (en) | Coherent fiber array with dense fiber optic bundles for light-field and high resolution image acquisition | |
US20130021474A1 (en) | Rolling-shutter imaging system with synchronized scanning illumination and methods for higher-resolution imaging | |
EP0697118B1 (en) | Device for forming autostereoscopic images | |
CN111182238B (en) | High-resolution mobile electronic equipment imaging device and method based on scanning light field | |
EP3700192B1 (en) | Imaging device and signal processing device | |
AU2015213322A1 (en) | Multiple pixel pitch for super resolution | |
AU2018351819B2 (en) | Multi-spectral boresight alignment methods and systems | |
CN109163809B (en) | Multi-aperture view field partially overlapped dual-band thermal imaging method and device | |
WO2023041884A1 (en) | Hemispherical optronic system for detecting and locating threats, employing real-time processing | |
FR3127297A1 (en) | HEMISPHERIC OPTRONIC SYSTEM FOR DETECTION AND LOCATION OF THREATS WITH REAL-TIME PROCESSING | |
Choudhury et al. | Simultaneous enhancement of scanning area and imaging speed for a MEMS mirror based high resolution LiDAR | |
CN103248806A (en) | Device for single camera to achieve spatial 360 degree annular panoramic and local precise imaging | |
US11994365B2 (en) | Projectile tracking and 3D traceback method | |
CN106644074B (en) | A kind of 3 D stereo spectrum imaging system | |
Popovic et al. | State-of-the-art multi-camera systems | |
CN112600995A (en) | Camera assembly, calibration method thereof and electronic equipment | |
CN114460660A (en) | Pyramid wave-front sensor and target wave-front detection method | |
Wu et al. | Illumination compensation of microcamera image in monocentric multiscale foveated imaging system | |
Zhang et al. | Image Acquisition Devices | |
KR20190055319A (en) | Wide-field patrol system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLSC | Publication of the preliminary search report |
Effective date: 20230324 |
|
PLFP | Fee payment |
Year of fee payment: 2 |