WO2020127774A1 - Dispositif et procédé d'estimation de mouvement d'un capteur d'images entre deux images, programme d'ordinateur associé - Google Patents
Dispositif et procédé d'estimation de mouvement d'un capteur d'images entre deux images, programme d'ordinateur associé Download PDFInfo
- Publication number
- WO2020127774A1 WO2020127774A1 PCT/EP2019/086366 EP2019086366W WO2020127774A1 WO 2020127774 A1 WO2020127774 A1 WO 2020127774A1 EP 2019086366 W EP2019086366 W EP 2019086366W WO 2020127774 A1 WO2020127774 A1 WO 2020127774A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- images
- image
- displacement
- displacement vector
- movement
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Definitions
- TITLE Device and method for estimating the movement of an image sensor between two images, associated computer program
- the present invention relates to a method for estimating the movement of an image sensor between two images captured by this sensor.
- these displacement flow calculation methods minimize an error function iteratively starting from a displacement vector of given initialization value and thus propose, over the iterations, displacement vectors more and more closer to a minimum of this error function (assuming that this local minimum corresponds to the true displacement vector).
- the iterative methods used are typically those of Newton or Gauss-Newton type or even gradient descent.
- the aim of the invention is then to propose a solution which contributes to reducing these problems.
- the invention proposes a method for estimating movement between two images implemented by an electronic processing device, said images being captured using an image capture device. , said method comprising the steps consisting in: - collect the data defining each of the two images;
- an iterative algorithm delivering at each iteration an updated displacement vector as a function of an error function to be minimized between one of the two images and the transform of l other image by a displacement defined by the updated displacement vector
- the invention thus makes it possible to use the configuration information of the camera as well as the position and orientation information of the camera coming from an inertial unit coupled to the camera in order to propose a first vector of displacement Xo close to the vector true.
- This improves performance overall by increasing the probability of converging to true displacement. In particular, this improves the accuracy of the solution provided and makes it possible to estimate larger displacements between images.
- using a first displacement vector Xo close to the true results in a reduction in the number of iterations and will also accelerate convergence while naturally reducing the computing time and resources.
- the motion estimation method according to the invention further comprises one or more of the following characteristics:
- the information defining the movement of the image capture device between the two images is provided by a motion determination device attached to the image capture device;
- L is the number of levels of a successive reduction pyramid of image resolution in the case of a multi-resolution motion estimation method or is equal to 1 otherwise;
- (y, q, f,) are the Euler angles indicated by the information collected, Y further representing the rotation of the camera around its line of sight, the images having w pixels in width and H pixels in height.
- the present invention provides an electronic device for estimating movement between two images comprising an input for collecting the data defining each of the two images and being suitable for determining an initialization displacement vector characterizing a displacement between said two images and to implement, from the initialization displacement vector, an iterative algorithm delivering at each iteration an updated displacement vector as a function of an error function to be minimized between one of the two images and the transform of the other image by a displacement defined by the updated displacement vector, said device being characterized in that it is adapted to collect information defining the movement of the image capture device between the two images, to collect the value of the capture parameter (s) of an image capture device used for capturing the two images from an angular aperture, a zoom factor and the resolution of the images and to determine the initialization displacement vector by projection, in the image plane of the image capture device, of the displacement between the two images calculated as a function of the information collected defining the movement of the image capture device between the two images and as a function of the value of each capture parameter.
- said device is adapted to take the equal initialization displacement vector where L is the number of levels of a successive reduction pyramid of image resolution in the case of a multi-resolution motion estimation method or is equal to 1 otherwise; (y, q, f,) are the Euler angles indicated by the information collected, further representing therein the rotation of the camera around its line of sight, the images having w pixels in width and H pixels in height.
- the present invention provides a computer program comprising software instructions which, when executed by a computer, implement a method as defined above
- FIG. 1 represents two successive images ⁇ ⁇ , ⁇ ⁇ captured by a camera in an embodiment of the invention
- Figure 2 is a view of an image processing system in one embodiment of the invention.
- Figure 3 is a view of image pyramids in a multi-resolution embodiment of the invention.
- Figure 4 illustrates the angles of Euler used in an embodiment of the invention
- FIG. 2 is a schematic view of an image processing system 1 in an embodiment of the invention.
- the image processing system 1 comprises an electronic motion estimation device 10, an image capture block 2 and a motion determination block 3, suitable for determining the movements of the camera.
- the image capture block 2 is a camera 2 and the motion determination block 3 is an inertial unit 3 secured to the camera 2 (for example a mini inertial unit).
- the camera 2 comprises means for adjusting image capture parameters, for adjusting the value of the parameters for capturing each image (the adjustment of a given parameter to a value from among several proposed values is for example carried out automatically and / or based on values entered by an operator from a camera human-machine interface).
- these parameters are, for example, one or more parameters for the angular aperture of the camera and / or a zoom factor used for capturing and resolving images.
- the camera 2 is adapted to deliver to the electronic motion estimation device 10 each captured image, in the form of image data (for example an intensity value associated with each pixel of a pixel matrix), associated with the value taken by each image capture parameter when capturing this image.
- image data for example an intensity value associated with each pixel of a pixel matrix
- the inertial unit 3 comprises:
- the specific force is the sum of external forces other than gravitational divided by the mass
- the inertial unit 3 also comprises a computer (not shown) adapted to determine by integration in real time, from successive measurements of these six sensors, the position of the camera 2 (for example the position of a particular camera point 2) and its orientation (for example the Euler angles giving the attitude: roll, pitch and heading) relative to a reference frame.
- the inertial unit 3 is adapted to deliver this position and orientation information to the electronic motion estimation device 10.
- attitude of a rigid body is defined by the way in which the latter is oriented.
- N a fixed reference landmark
- B a mobile landmark
- the axes of the reference frame B are chosen aligned with the main axes of inertia of the rigid body defining its rotation.
- a fixed reference frame often used is the one which is tangent to the surface of the earth and defined according to the NED convention (North, East, Down), according to which the unit vectors (X, Y, Z) point respectively to the directions North, East and gravity (gravity).
- the orientation, corresponding to the passage from the frame N to the frame B linked to the body, can be described using a succession of three elementary rotations around the three axes of the frame, respectively X, Y, Z and defined by the angles Euler respectively y, q, f.
- the camera 2 respectively the inertial unit 3 is connected to the motion estimation device 10, by a telecommunication link, for example a radiocommunication link in one embodiment.
- a telecommunication link for example a radiocommunication link in one embodiment.
- the motion estimation device 10 is adapted to estimate the displacement of the camera 3 between two images ⁇ ⁇ , h as captured by the camera 2 and represented in FIG. 1, by implementing an iterative method.
- the iterative estimation method is for example (in existing solutions) inserted in a multi-resolution scheme where the dimensions of the images are reduced by 2x2 (we obtain an inverted pyramid of images), L-1 times, until to obtain small images where the choice (again in standard methods) of a first displacement vector Xo equal to the zero vector is assumed to be close to the true vector, where L is an integer greater than or equal to 1.
- Figure 3 illustrates a pyramid of images at 4 levels.
- the electronic motion estimation device 10 comprises a collection interface 11 and an electronic processing unit 12.
- the collection interface 11 is adapted to collect the data of each image, for example ⁇ ⁇ ,, as well as for each image, the values of the parameters of the camera 2 delivered by the camera 2 as well as the position and orientation information. delivered by the inertial unit 3 corresponding to the time for capturing this image.
- the inertial unit 3 corresponding to the time for capturing this image.
- the motion estimation device 10 is adapted to implement the steps described with reference to FIG. 8.
- the processing block 12 comprises a memory and a microcomputer (not shown), the memory storing software instructions which, when executed on the microcomputer, implement the steps described with reference to the figure 8.
- the processing block 12 recovers the information from the camera 2 (angular apertures, zoom factor, etc.) and the corresponding information from the inertial unit 3. This information, compared with that of the previous image allow to estimate what is the displacement of the camera between the moments of capture of the two images, to project in the image plane of camera 2 (and at the lowest level of the inverted pyramid in the case of 'a multi-resolution scheme) this displacement and thus obtain an initialization displacement vector, i' f .
- the collection interface 11 collects the data of the image ⁇ ⁇ , then, as well as for each image, the values of the parameters of the camera 2 and the information of position and orientation and supplies them to the processing block 12.
- a displacement model or transformation r between these two images is used and the objective is to estimate the parameters of this displacement model.
- This displacement or transformation model will give for each pixel (3 ⁇ 4, j of image 4 the displacement vector or displacement flow (3 ⁇ 4 i?) to apply to reach the corresponding pixel from picture 1 ⁇ 2.
- the displacement model used is defined by:
- Pixel coordinates in image J 2 corresponding to the pixel (i ⁇ j in image 4 are obtained by the following formulas.
- the resolution of this minimization problem is made using a recursive method, for example of the Gauss-Newton type, starting, according to the invention, from an initial value of the vector of coefficients.
- n L-1, ie to estimate the displacement between the smallest image of the pyramid of and the smallest image of the pyramid of 4, the parameters of the camera 2 and the information from the inertial unit 3 associated with it is used to calculate the initialization value of the vector of coefficients - ⁇ j 1 .
- the reference frame of the inertial unit 3 is calibrated with the line of sight of the camera 2 so that the rotation there corresponds to the rotation of the image plane around its center.
- the parameter values supplied by camera 2 indicate between the two images 4 and 4 a zoom factor noted s.
- This angular opening information is provided by the camera 2 in step 100.
- the images produced have w pixels in width and H pixels in height.
- the line of sight of camera 2 and the inertial unit 3 are assumed to be set so that f represents the rotation of camera 2 around its line of sight.
- the rotation in the image plane generated by Y is represented by the following matrix:
- the change of scale created by the zoom of camera 2 is represented by the following matrix:
- the transformation generated by f and the change in zoom s is represented by the composition of the two previous matrices.
- steps 102 1 and 102 2 of the set of steps 102 are now described.
- a sub-step 102 2 for the level L-1, the recursive computations, for example according to Gauss Newton are implemented, starting from the initial vector determined in step 102 1.
- the final estimate of movement 1 between the two images is then obtained, by leaving the set of steps 102 implemented for level 0.
- the present invention thus makes it possible to use the parameters of the camera (angular apertures, zoom factor, etc.) and the attitude information of a (for example mini) inertial unit coupled to the camera in order to provide a first initialization displacement vector closer to the true solution.
- the electronic processing unit 12 is produced in the form of a programmable logic component, such as an FPGA (from the English Field Programmable Gâte Arra ⁇ ), or also in the form of a dedicated integrated circuit , such as an ASIC (from the English Applications Specifies Integrated Circuit).
- a programmable logic component such as an FPGA (from the English Field Programmable Gâte Arra ⁇ )
- ASIC application specific integrated circuit
- the present invention applies to any iterative motion estimation algorithm between images starting from an initial motion estimation: typically those of Newton or Gauss-Newton type or even gradient descent etc.
- the motion determination block 3 is not integral with the camera 2 and / or is not a (mini) inertial unit, but for example a displacement given by a step motor step or any other system capable of providing a physical estimate of the movement of the camera.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Procédé d'estimation de mouvement entre deux images (I 1, I 2 ) comprenant les étapes de : - déterminer un vecteur d'initialisation de déplacement entre les deux images par projection, dans le plan image de l'appareil de capture d'image, du déplacement entre les deux images calculé en fonction d'informations recueillies définissant le mouvement de l'appareil de capture d'images entre les deux images et en fonction de la valeur de paramètre(s) de capture d'images utilisé(s) parmi une ouverture angulaire, un facteur de zoom et la résolution des images; - mettre en oeuvre, à partir du vecteur d'initialisation de déplacement, un algorithme itératif délivrant un vecteur de déplacement en fonction d'une fonction d'erreur à minimiser entre l'une des deux images et la transformée de l'autre image par le vecteur de déplacement.
Description
TITRE : Dispositif et procédé d’estimation de mouvement d’un capteur d’images entre deux images, programme d’ordinateur associé
La présente invention concerne un procédé d’estimation de mouvement d’un capteur d’images entre deux images capturées par ce capteur.
Dans le domaine du traitement vidéo, de nombreuses méthodes de stabilisation numérique d’images, de détections d’objets mobiles en caméra embarquée, de construction de bandeaux, de détermination de trajectoire d’objets ... utilisent de tels procédés d’estimation de mouvement entre deux images, comprenant généralement l’estimation d’un vecteur, dit vecteur de déplacement, définissant le mouvement de la caméra entre deux images consécutives ; un tel vecteur est par exemple composé des paramètres d’un modèle de déplacement entre les deux images.
Bien souvent, ces méthodes de calculs de flux de déplacement minimisent une fonction d’erreur de manière itérative en partant d’un vecteur de déplacement de valeur d’initialisation donnée et proposent ainsi, au fil des itérations, des vecteurs de déplacement de plus en plus proches d’un minimum de cette fonction d’erreurs (en supposant que ce minimum local corresponde au vecteur de déplacement vrai). Les méthodes itératives utilisées sont typiquement celles de type Newton ou Gauss-Newton ou encore de descente de gradient.
Ces méthodes présentent plusieurs problèmes. Si le vecteur initial de déplacement est trop éloigné, au sens de la norme euclidienne, du déplacement vrai, la méthode ne converge pas et produit un résultat inexploitable. Un deuxième problème, conséquence directe du premier est que, comme le vecteur initial ne doit pas être trop éloigné du vecteur vrai, les amplitudes des déplacements entre images qui peuvent être estimées s’en trouvent limitées. Un troisième problème est que rien ne garantit, dans le cas général, que la fonction d’erreur à minimiser soit convexe : l’algorithme peut donc converger vers un minimum local éloigné de la solution vraie. Enfin, la convergence de ces méthodes peut nécessiter de nombreuses itérations, coûteuses en temps (et ressources) de calcul, ce qui est problématique dans des applications temps réel.
Le but de l’invention est alors de proposer une solution qui contribue à réduire ces problèmes.
A cet effet, suivant un premier aspect, l’invention propose un procédé d’estimation de mouvement entre deux images mis en oeuvre par un dispositif de traitement électronique, lesdites images étant capturées à l’aide d’un appareil de capture d’images, ledit procédé comprenant les étapes consistant à :
- recueillir les données définissant chacune des deux images ;
- déterminer un vecteur de déplacement d’initialisation caractérisant un déplacement entre lesdites deux images ;
- mettre en oeuvre, à partir du vecteur de déplacement d’initialisation, un algorithme itératif délivrant à chaque itération un vecteur de déplacement actualisé en fonction d’une fonction d’erreur à minimiser entre l’une des deux images et la transformée de l’autre image par un déplacement défini par le vecteur de déplacement actualisé,
- ledit procédé étant caractérisé en ce qu’il comprend les étapes consistant à :
- recueillir des informations définissant le mouvement de l’appareil de capture d’images entre les deux images ;
- recueillir la valeur de paramètre(s) de capture de l’appareil de capture d’images utilisé(s) pour la capture des deux images parmi une ouverture angulaire, un facteur de zoom et la résolution des images ;
- déterminer le vecteur de déplacement d’initialisation par projection, dans le plan image de l’appareil de capture d’image, du déplacement entre les deux images calculés en fonction des informations recueillies définissant le mouvement de l’appareil de capture d’images entre les deux images et en fonction de la valeur de chaque paramètre de capture.
L’invention permet ainsi d’utiliser les informations de paramétrage de la caméra ainsi que les informations de position et d’orientation de la caméra issues d’une centrale inertielle couplée à la caméra afin de proposer un premier vecteur de déplacement Xo proche du vecteur vrai. Cela permet d’améliorer globalement les performances en accroissant la probabilité de converger vers le déplacement vrai. En particulier, cela améliore la précision de la solution fournie et permet d’estimer des déplacements plus grands entre images. De plus, utiliser un premier vecteur de déplacement Xo proche du vrai a pour conséquence une diminution du nombre d’itérations et accélérera aussi la convergence tout en réduisant naturellement les temps et ressources de calcul.
Dans des modes de réalisation, le procédé d’estimation de mouvement suivant l’invention comporte en outre une ou plusieurs des caractéristiques suivantes :
- les informations définissant le mouvement de l’appareil de capture d’images entre les deux images sont fournies par un dispositif de détermination de mouvement attaché à l’appareil de capture d’images ;
- le vecteur de déplacement d’initialisation est pris égal à
où L est le nombre de niveaux d’une pyramide de réduction successive de résolution d’image dans le cas d’un procédé d’estimation de mouvement multi-résolution ou est égal à 1 sinon ; (y , q, f,) sont les angles d’Euler indiqués par les informations recueillies, Y représentant en outre la rotation de la caméra autour de sa ligne de visée, les images ayant w pixels en largeur et H pixels en hauteur.
Suivant un deuxième aspect, la présente invention propose un dispositif électronique d’estimation de mouvement entre deux images comprenant une entrée pour recueillir les données définissant chacune des deux images et étant adapté pour déterminer un vecteur de déplacement d’initialisation caractérisant un déplacement entre lesdites deux images et pour mettre en oeuvre, à partir du vecteur de déplacement d’initialisation, un algorithme itératif délivrant à chaque itération un vecteur de déplacement actualisé en fonction d’une fonction d’erreur à minimiser entre l’une des deux images et la transformée de l’autre image par un déplacement défini par le vecteur de déplacement actualisé, ledit dispositif étant caractérisé en ce qu’il est adapté pour recueillir des informations définissant le mouvement de l’appareil de capture d’images entre les deux images, pour recueillir la valeur de paramètre(s) de capture d’un appareil de capture d’images utilisé(s) pour la capture des deux images parmi une ouverture angulaire, un facteur de zoom et la résolution des images et pour déterminer le vecteur de déplacement d’initialisation par projection, dans le plan image de l’appareil de capture d’image, du déplacement entre les deux images calculé en fonction des informations recueillies définissant le mouvement de l’appareil de capture d’images entre les deux images et en fonction de la valeur de chaque paramètre de capture.
Dans un mode de réalisation, ledit dispositif est adapté pour prendre le vecteur de déplacement d’initialisation égal
où L est le nombre de niveaux d’une pyramide de réduction successive de résolution d’image dans le cas d’un procédé d’estimation de mouvement multi- résolution ou est égal à 1 sinon ; (y , q, f,) sont les angles d’Euler indiqués par les informations recueillies, y représentant en outre la rotation de la caméra autour de sa ligne de visée, les images ayant w pixels en largeur et H pixels en hauteur.
Suivant un troisième aspect, la présente invention propose un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un procédé tel que défini ci-dessus
Ces caractéristiques et avantages de l’invention apparaîtront à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple, et faite en référence aux dessins annexés, sur lesquels :
- [Fig 1] la figure 1 représente deux images successives \^, \å capturées par une caméra dans un mode de réalisation de l’invention ;
- [Fig 2] la figure 2 est une vue d’un système de traitement d’images dans un mode de réalisation de l’invention ;
- [Fig 3] la figure 3 est une vue de pyramides d’images dans un mode de réalisation en multi-résolution de l’invention ;
- [Fig 4] la figure 4 illustre les angles d’Euler utilisés dans un mode de réalisation de l’invention ;
- [Fig 5] les figures 5, [Fig 6] 6 et [Fig 7] 7 illustrent les transformations par rapport au plan image dans un mode de réalisation de l’invention ;
- [Fig 8] la figure 8 est un organigramme d’étapes mises en oeuvre dans un mode de réalisation de l’invention.
La figure 2 est une vue schématique d’un système de traitement d’images 1 dans un mode de réalisation de l’invention. Le système de traitement d’images 1 comprend un dispositif électronique d’estimation de mouvement 10, un bloc de capture d’images 2 et un bloc de détermination de mouvement 3, adapté pour déterminer les mouvements de la caméra.
Dans le cas considéré, le bloc de capture d’images 2 est une caméra 2 et le bloc de détermination de mouvement 3 est une centrale inertielle 3 solidaire de la caméra 2 (par exemple une mini-centrale inertielle).
La caméra 2 comporte des moyens de réglage de paramètres de capture d’image, pour régler la valeur des paramètres pour la capture de chaque image (le réglage d’un paramètre donné à une valeur parmi plusieurs valeurs proposées est par exemple effectué automatiquement et/ou en fonction de valeurs saisies par un opérateur depuis une interface homme-machine de la caméra). Parmi ces paramètres figurent par exemple un ou des paramètres d’ouverture angulaire de caméra et/ou un facteur de zoom utilisé pour la capture et la résolution des images.
La caméra 2 est adaptée pour délivrer à destination du dispositif électronique d’estimation de mouvement 10 chaque image capturée, sous la forme de données d’images (par exemple une valeur d’intensité associée à chaque pixel d’une matrice de pixels), associée à la valeur prise par chaque paramètre de capture d’image lors de la capture de cette image.
La centrale inertielle 3 comporte :
- trois gyromètres mesurant les trois composantes du vecteur vitesse angulaire (vitesses de variation des angles de roulis, de tangage et de lacet) ; et
- trois accéléromètres mesurant les trois composantes du vecteur force spécifique (la force spécifique est la somme des forces extérieures autres que gravitationnelles divisée par la masse)
La centrale inertielle 3 comporte en outre un calculateur (non représenté) adapté pour déterminer par intégration en temps réel, à partir des mesures successives de ces six capteurs, la position de la caméra 2 (par exemple la position d’un point particulier de caméra 2) et son orientation (par exemple les angles d’Euler donnant l'attitude : roulis, tangage et cap) par rapport à un repère de référence. La centrale inertielle 3 est adaptée pour délivrer ces informations de position et orientation à destination du dispositif électronique d’estimation de mouvement 10.
Pour rappel, l’attitude d’un corps rigide, ici de la caméra 2, est définie par la façon dont ce dernier est orienté. En général, pour exprimer une attitude, on considère deux
repères : un repère de référence fixe, noté N, d’axes X , Y , Z, et un repère mobile, attaché au corps, noté B, d’axes XG, YG, Zg.
Pour exprimer convenablement l’attitude, les axes du repère B sont choisis alignés avec les axes principaux d’inertie du corps rigide définissant sa rotation. Un repère de référence fixe souvent utilisé, est celui qui est tangent à la surface de la terre et défini selon la convention NED (North, East, Down), selon laquelle les vecteurs unitaires (X , Y , Z) pointent respectivement vers les directions Nord, Est et la pesanteur (la gravité). L’orientation, correspondant au passage du repère N au repère B lié au corps, peut être décrite à l’aide d’une succession de trois rotations élémentaires autour des trois axes du repère, respectivement X, Y, Z et définies par les angles d’Euler respectivement y, q, f.
Dans le mode de réalisation considéré, la caméra 2, respectivement la centrale inertielle 3, est reliée au dispositif d’estimation de mouvement 10, par une liaison de télécommunication, par exemple une liaison de radiocommunication dans un mode de réalisation.
Le dispositif d’estimation de mouvement 10 est adapté pour estimer le déplacement de la caméra 3 entre deux images \^, h telles que capturées par la caméra 2 et représentées en figure 1 , en mettant en oeuvre une méthode itérative.
On notera ici que les imprécisions des informations sur les informations de position et d’orientation fournies par la centrale inertielle 3 ne permettent pas de traiter le problème directement et que l’étape de traitement d’images itérative est nécessaire pour obtenir le niveau de précision souhaitée quant à l’estimation du déplacement, niveau de précision supérieur à celui fourni par les informations de position et d’orientation fournies par la centrale inertielle 3.
La méthode itérative d’estimation est par exemple (dans les solutions existantes) insérée dans un schéma multi-résolution où les dimensions des images sont réduites par 2x2 (on obtient une pyramide inversée d’images), à L-1 reprises, jusqu’à obtenir de petites images où le choix (encore une fois dans les méthodes standards) d’un premier vecteur de déplacement Xo égal au vecteur nul est supposé se trouver proche du vecteur vrai, où L est un nombre entier supérieur ou égal à 1. La figure 3 illustre une pyramide d’images à 4 niveaux.
Dans le mode de réalisation considéré, le dispositif électronique d’estimation de mouvement 10 comporte une interface de collecte 1 1 et un bloc électronique de traitement 12.
L’interface de collecte 1 1 est adaptée pour collecter les données de chaque image, par exemple \^, , ainsi que pour chaque image, les valeurs des paramètres de la caméra 2 délivrées par la caméra 2 ainsi que les informations de position et orientation
délivrées par la centrale inertielle 3 correspondant au temps de capture de cette image. Sont ainsi fournis dans le cas considéré notamment les trois angles d’Euler {f,q,y} de déplacement de la caméra entre les prises des images 4 et ¾ comme représenté en figure 4.
Dans un mode de réalisation, le dispositif d’estimation de mouvement 10 est adapté pour mettre en oeuvre les étapes décrites en référence à la figure 8.
Dans un mode de réalisation, le bloc de traitement 12 comporte une mémoire et un microcalculateur (non représentés), la mémoire stockant des instructions logicielles qui, lorsqu’elles sont exécutées sur le microcalculateur, mettent en oeuvre les étapes décrites en référence à la figure 8.
Ainsi, lorsqu’une nouvelle image est collectée, le bloc de traitement 12 récupère les informations de la caméra 2 (ouvertures angulaires, facteur de zoom, ...) et les informations correspondantes de la centrale inertielle 3. Ces informations, comparées avec celles de l’image précédente permettent d’estimer quel est le déplacement de la caméra entre les instants de capture des deux images, de projeter dans le plan image de la caméra 2 (et au niveau le plus bas de la pyramide inversée dans le cas d’un schéma multi-résolution) ce déplacement et d’obtenir ainsi un vecteur de déplacement d’initialisation, i'f. Ces opérations sont décrites plus en détail ci-après.
En référence à la figure 8, dans une étape 100 de collecte, l’interface de collecte 1 1 collecte les données de l’image \^, puis , ainsi que pour chaque image, les valeurs des paramètres de la caméra 2 et les informations de position et orientation et les fournit au bloc de traitement 12.
Dans une étape 101 de mise en oeuvre du schéma multi-résolution, deux pyramides gaussiennes, chacune de niveau maximum égal à L (L dans le cas considéré égal à 4) vont donc être calculées pour les deux images et 4, comme le montre la figure 3. Le choix du niveau L dépend principalement de la résolution des deux images (identiques dans le cas présent).
Afin de comprendre l’apport de la solution proposée, commençons par rappeler comment fonctionne une méthode d’estimation de mouvement entre deux images (de même résolution).
Soient donc deux image 4 et 4, le but est d’estimer le déplacement entre ces deux images comme le montre la figure 1.
Pour estimer ce mouvement de déplacement, un modèle de déplacement ou transformation r entre ces deux images est utilisé et l’objectif est d’estimer les paramètres de ce modèle de déplacement. Ce modèle de déplacement ou transformation va donner
pour chaque pixel (¾, j de l’image 4 le vecteur de déplacement ou flux de déplacement (¾ i?) à appliquer pour atteindre le pixel correspondant
de l’image ½. Le modèle de déplacement utilisé est défini par :
(Formule 1)
Il s’agit d’une transformation affine de vecteur de coefficients i = io1, ¾, fl3, i34, Q5, a6F permettant de prendre en compte des transformations entre images de type translation, zoom, rotation, ...
Les coordonnées du pixel
dans l’image J2 correspondant au pixel (i^j dans l’image 4 sont obtenues par les formules suivantes.
L’objectif va être à chaque niveau n considéré successivement en partant du niveau le plus grand (correspondant aux images les plus petites, i.e. à n = L-1 ) jusqu’au niveau le plus petit (n = 0), d’estimer les paramètres de transformation x = (at, ¾, ¾, s4, as, Q6 entre les deux images \^, I2 considérées dans leur résolution correspondant au niveau n, en minimisant (i.e. en faisant descendre sous un seuil pré défini d’erreur maximum acceptable) une somme d’erreurs aux carrés de la forme suivante, où p est une certaine fonction pouvant être l’identité ou une fonction rendant l’estimation robuste aux données aberrantes, cette somme représentant une erreur globale entre le déplacement « vrai » et le déplacement estimé entre les deux images :
La résolution de ce problème de minimisation est faite en utilisant une méthode récursive, par exemple de type Gauss-Newton, à partir, selon l’invention, d’une valeur initiale du vecteur de coefficients. Cette valeur initiale du vecteur de coefficients, ou valeur d’initialisation, est notée
pour le niveau n le plus grand (n= L-1 ) et notée Xo_n pour chacun des autres niveaux n.
Un ensemble itératif 102 d’étapes est mis en oeuvre, pour chaque niveau n de pyramide, en commençant au niveau le plus haut de la pyramide inversée (là où les
images sont les plus petites : i.e. on considère la plus petite image de la pyramide de 4 et la plus petite image de la pyramide de I2), dans le cas présent correspondant au niveau n=3 : pour chaque niveau n, les calculs récursifs, par exemple selon la méthode de Gauss Newton, vont ainsi être lancés, avec une estimée initiale respective pour le niveau n pour estimer le déplacement entre l’image de niveau n de la pyramide de et l’image de niveau n de de la pyramide de 4.
Dans la mise en oeuvre de l’ensemble 102 d’étape pour n= L-1 , i.e. pour estimer le déplacement entre la plus petite image de la pyramide de et la plus petite image de la pyramide de 4, les paramètres de la caméra 2 et les informations de la centrale inertielle 3 associée à celle-ci sont utilisés pour calculer la valeur d’initialisation du vecteur de coefficients -ïj 1.
Il est également considéré dans le mode de réalisation particulier que le repère de la centrale inertielle 3 est calé avec l’axe de visée de la caméra 2 de telle sorte que la rotation y corresponde à la rotation du plan image autour de son centre.
Considérons que les valeurs de paramètres fournies par la caméra 2 indiquent entre les deux images 4 et 4 un facteur de zoom noté s. Notons «f l’ouverture angulaire en azimut de la caméra et ¾ l’ouverture en site, qui indiquent les variations d’ouverture entre les deux images. Ces informations d’ouvertures angulaires sont fournies par la caméra 2 à l’étape 100. Les images produites ont w pixels en largeur et H pixels en hauteur.
Les translations 4 et 4 engendrées dans le plan image PI par les rotations y et q de la caméra 2 sont représentées en figures 5 à 7.
En référence à la figure 5, on a
4 = tanl¾i) X /.
où / est la distance horizontale entre le centre de l'image et le bord de droite (voir figure 5)
t , en référence aux figures 6 et 7, peut être calculé ainsi (voir également figure 5) : t = tan(fl) x f = tan(e) f2 + tf.
En passant dans le plan image avec des longueurs en pixels, il en résulte que :
Il sera détaillé par la suite comment cette translation générée par les angles y et s est prise en compte dans le calcul de
Regardons maintenant quelle est la transformation générée dans le plan image par le dernier angle d’Euler f et le changement de zoom de la caméra 2.
La ligne de visée de la caméra 2 et la centrale inertielle 3 sont supposées calées de telle sorte que f représente la rotation de la caméra 2 autour de sa ligne de visée. Dans ces conditions, la rotation dans le plan image engendrée par Y est représentée par la matrice suivante :
Le changement d’échelle créé par le zoom de la caméra 2 est quant à lui représenté par la matrice suivante :
fs D\
1.0 s)'
La transformation générée par f et le changement de zoom s est représentée par la composition des deux précédentes matrices.
/S X CQs( >) -s X sîn( t)\
\s x sïn(f*) s x cosCf») /'
Il s’agit ici de la transformation géométrique et non d’un flux de déplacement. Pour obtenir le flux de déplacement affine à partir de cette transformation, il faut soustraire la position i, j, qui est la position de chaque pixel considéré, de l’image \^ avec i entier compris entre 0 et W-1 et j compris entre 0 et H-1. Le flux engendré par la transformation précédente qui est une composition d’une rotation et d’un zoom vaut alors :
On ajoute {w - i)/2 et (» - 1)/2 et on soustrait {w - 1)/2 à î et (b - 1)/2 à / dans les deux premiers termes car la rotation et le zoom sont exprimés par rapport au centre de l’image qui se trouve au point de coordonnées ({W - l)/2 , (R - l)/2). En développant l’expression précédente, il vient :
En ajoutant à ce flux de déplacement la translation engendrée par les deux angles de rotation y et Q, le flux de déplacement total suivant est obtenu.
Par identification et sans oublier la transformation P à appliquer à chaque changement de niveau dans la pyramide, on a alors :
(Formule 2)
Ces principes étant exposés, les étapes 102 1 et 102 2 de l’ensemble d’étapes 102 sont maintenant décrites.
Pour le niveau L-1 , dans une sous-étape 102 1 de détermination de vecteur initial, le vecteur initial ¾ est pris égal a = 1% , ¾ , a{ , a ,a5 r ,a J avec les valeurs de ces coefficients définies ci-dessus, en formule 2.
Dans une sous-étape 102 2, pour le niveau L-1 , les calculs récursifs, par exemple selon Gauss Newton sont mis en oeuvre, à partir du vecteur initial
déterminé en étape 102 1 .
Lorsque les calculs récursifs de Gauss-Newton sont terminés, l’algorithme dispose, à ce niveau n=L-1 de la pyramide, d’une estimation f1 du vecteur de déplacement åL entre les deux images courantes des deux pyramides.
Ensuite, pour descendre dans les pyramides et ainsi affiner et converger vers une estimation plus précise de x, il faut transformer l’estimation f1 afin de la faire passer « au niveau inférieur » dans les pyramides.
La transformation P à appliquer à î1 ¾)‘ est la suivante :
Une fois cette transformation P faite, il faut recommencer au niveau inférieur, i.e. au niveau L-2 (avec donc des images plus résolues), l’ensemble d’étapes 102, c’est-à- dire les calculs récursifs de type Gauss Newton (étape 102 2 pour le niveau L-2), mais en prenant cette fois dans l’étape 102 1 pour le niveau L-2, pour estimée initiale Xo L = Pif1).
Ce processus (102 1 puis 102 2) est répété jusqu’au niveau le plus bas de la pyramide correspondant à n=0 (qui correspond aux images et ¾ originales), en prenant pour chaque niveau comme estimée initiale du vecteur de coefficients la transformée par P de l’estimation du vecteur de coefficients résultant du niveau précédent.
L’estimation finale du mouvement 1 entre les deux images est alors obtenue, en sortant de l’ensemble d’étapes 102 mis en oeuvre pour le niveau 0.
La présente invention permet ainsi d’utiliser les paramètres de la caméra (ouvertures angulaires, facteur de zoom, ...) et les informations d’attitude d’une (par exemple mini-)centrale inertielle couplée à la caméra afin de proposer un premier vecteur de déplacement d’initialisation plus proche de la solution vraie.
Dans un autre mode de réalisation, le bloc électronique de traitement 12 est réalisé sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglais Field Programmable Gâte Arraÿ), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglais Applications Spécifie Integrated Circuit).
La présente invention s’applique à tout algorithme itératif d’estimation de mouvement entre images partant d’une estimation initiale du mouvement : typiquement celles de type Newton ou Gauss-Newton ou encore de descente de gradient etc.
Dans d’autres modes de réalisation, le bloc de détermination de mouvement 3, n’est pas solidaire de la caméra 2 et/ou n’est pas une (mini-)centrale inertielle, mais par exemple un déplacement donné par un moteur pas à pas ou tout autre système capable de fournir une estimation physique du déplacement de la caméra.
Claims
1. Procédé d’estimation de mouvement entre deux images (4, ) mis en oeuvre par un dispositif de traitement électronique (10), lesdites images étant capturées à l’aide d’un appareil de capture d’images (2), ledit procédé comprenant les étapes consistant à :
- recueillir les données définissant chacune des deux images ;
- déterminer un vecteur de déplacement d’initialisation caractérisant un déplacement entre lesdites deux images ;
- mettre en oeuvre, à partir du vecteur de déplacement d’initialisation, un algorithme itératif délivrant à chaque itération un vecteur de déplacement actualisé en fonction d’une fonction d’erreur à minimiser entre l’une des deux images et la transformée de l’autre image par un déplacement défini par le vecteur de déplacement actualisé,
- ledit procédé étant caractérisé en ce qu’il comprend les étapes consistant à :
- recueillir des informations définissant le mouvement de l’appareil de capture d’images entre les deux images ;
- recueillir la valeur de paramètre(s) de capture de l’appareil de capture d’images utilisé(s) pour la capture des deux images parmi une ouverture angulaire, un facteur de zoom et la résolution des images ;
- déterminer le vecteur de déplacement d’initialisation par projection, dans le plan image de l’appareil de capture d’image, du déplacement entre les deux images calculé en fonction des informations recueillies définissant le mouvement de l’appareil de capture d’images entre les deux images et en fonction de la valeur de chaque paramètre de capture.
2. Procédé d’estimation de mouvement entre deux images (4, 4 ) selon la revendication 1 , selon lequel les informations définissant le mouvement de l’appareil de capture d’images entre les deux images sont fournies par un dispositif de détermination de mouvement attaché à l’appareil de capture d’images.
3. Procédé d’estimation de mouvement entre deux images (4, 4 ) selon la revendication 1 , selon lequel le vecteur de déplacement d’initialisation est pris égal
, f est mit mit mit cpt trot i, T
a ¾ = \b , ¾ , £¾ , a , Bs , £% ) , OU
où L est le nombre de niveaux d’une pyramide de réduction successive de résolution d’image dans le cas d’un procédé d’estimation de mouvement multi- résolution ou est égal à 1 sinon ; (y , q, f,) sont les angles d’Euler indiqués par les informations recueillies, y représentant en outre la rotation de la caméra autour de sa ligne de visée, les images ayant w pixels en largeur et H pixels en hauteur.
4. Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en oeuvre un procédé selon l’une quelconque des revendications précédentes.
5. Dispositif électronique d’estimation de mouvement entre deux images {lt
, ¾ ) comprenant une entrée pour recueillir les données définissant chacune des deux images et étant adapté pour déterminer un vecteur de déplacement d’initialisation caractérisant un déplacement entre lesdites deux images et pour mettre en oeuvre, à partir du vecteur de déplacement d’initialisation, un algorithme itératif délivrant à chaque itération un vecteur de déplacement actualisé en fonction d’une fonction d’erreur à minimiser entre l’une des deux images et la transformée de l’autre image par un déplacement défini par le vecteur de déplacement actualisé,
- ledit dispositif étant caractérisé en ce qu’il est adapté pour recueillir des informations définissant le mouvement de l’appareil de capture d’images entre les deux images, pour recueillir la valeur de paramètre(s) de capture d’un appareil de capture d’images utilisé(s) pour la capture des deux images parmi une ouverture angulaire, un facteur de zoom et la résolution des images et pour déterminer le vecteur de déplacement d’initialisation par projection, dans le plan image de l’appareil de capture d’image, du déplacement entre les deux images calculé en fonction des informations recueillies définissant le mouvement de l’appareil de
capture d’images entre les deux images et en fonction de la valeur de chaque paramètre de capture.
6. Dispositif électronique d’estimation de mouvement entre deux images ( , ) selon la revendication 5, adapté pour prendre le vecteur de déplacement
... .. .. . , , ipt f ept opt oot mit opt apt J
d initialisation égal a -¾ = 1% , f¾ , af , a . as r , a y ou
\ j)
1
où L est le nombre de niveaux d’une pyramide de réduction successive de résolution d’image dans le cas d’un procédé d’estimation de mouvement multi- résolution ou est égal à 1 sinon ; (y , q, f,) sont les angles d’Euler indiqués par les informations recueillies, y représentant en outre la rotation de la caméra autour de sa ligne de visée, les images ayant w pixels en largeur et R pixels en hauteur.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19821130.2A EP3899867A1 (fr) | 2018-12-21 | 2019-12-19 | Dispositif et procédé d'estimation de mouvement d'un capteur d'images entre deux images, programme d'ordinateur associé |
US17/312,892 US12020441B2 (en) | 2018-12-21 | 2019-12-19 | Device and method for estimating the movement of an image sensor between two images, and associated computer program |
SG11202106379SA SG11202106379SA (en) | 2018-12-21 | 2019-12-19 | Device and method for estimating the movement of an image sensor between two images, and associated computer program |
IL283974A IL283974A (en) | 2018-12-21 | 2021-06-14 | Apparatus and method for estimating motion of an image sensor between two images and associated computer program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1873758A FR3090969B1 (fr) | 2018-12-21 | 2018-12-21 | Dispositif et procédé d’estimation de mouvement d’un capteur d’images entre deux images, programme d’ordinateur associé |
FR1873758 | 2018-12-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020127774A1 true WO2020127774A1 (fr) | 2020-06-25 |
Family
ID=67514686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2019/086366 WO2020127774A1 (fr) | 2018-12-21 | 2019-12-19 | Dispositif et procédé d'estimation de mouvement d'un capteur d'images entre deux images, programme d'ordinateur associé |
Country Status (6)
Country | Link |
---|---|
US (1) | US12020441B2 (fr) |
EP (1) | EP3899867A1 (fr) |
FR (1) | FR3090969B1 (fr) |
IL (1) | IL283974A (fr) |
SG (1) | SG11202106379SA (fr) |
WO (1) | WO2020127774A1 (fr) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2940492A1 (fr) * | 2008-12-19 | 2010-06-25 | Thomson Licensing | Procede d'estimation de mouvement multi-resolutions |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7292711B2 (en) * | 2002-06-06 | 2007-11-06 | Wintriss Engineering Corporation | Flight parameter measurement system |
JP4623111B2 (ja) * | 2008-03-13 | 2011-02-02 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2018
- 2018-12-21 FR FR1873758A patent/FR3090969B1/fr active Active
-
2019
- 2019-12-19 SG SG11202106379SA patent/SG11202106379SA/en unknown
- 2019-12-19 US US17/312,892 patent/US12020441B2/en active Active
- 2019-12-19 EP EP19821130.2A patent/EP3899867A1/fr active Pending
- 2019-12-19 WO PCT/EP2019/086366 patent/WO2020127774A1/fr unknown
-
2021
- 2021-06-14 IL IL283974A patent/IL283974A/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2940492A1 (fr) * | 2008-12-19 | 2010-06-25 | Thomson Licensing | Procede d'estimation de mouvement multi-resolutions |
Non-Patent Citations (3)
Title |
---|
KEHUA JIANG ET AL: "Motion-Compensated Frame Prediction with Global Motion Estimation for Image Sequence Compression", ELECTRICAL AND COMPUTER ENGINEERING, 2007. CCECE 2007. CANADIAN CONFER ENCE ON, IEEE, PI, 1 April 2007 (2007-04-01), pages 1468 - 1471, XP031176809, ISBN: 978-1-4244-1020-0 * |
MERZBAN MOHAMED H ET AL: "Toward multi-stage decoupled visual SLAM system", 2013 IEEE INTERNATIONAL SYMPOSIUM ON ROBOTIC AND SENSORS ENVIRONMENTS (ROSE), IEEE, 21 October 2013 (2013-10-21), pages 172 - 177, XP032546280, DOI: 10.1109/ROSE.2013.6698438 * |
YUWEN HE ET AL: "Fast global motion estimation for global motion compensation coding", CONFERENCE PROCEEDINGS / ISCAS 2001, THE 2001 IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS : 06 - 09 MAY 2001, SYDNEY CONVENTION AND EXHIBITION CENTRE, DARLING HARBOUR, SYDNEY, AUSTRALIA, IEEE SERVICE CENTER, PISCATAWAY, NJ, vol. 2, 6 May 2001 (2001-05-06), pages 233 - 236, XP010540621, ISBN: 978-0-7803-6685-5, DOI: 10.1109/ISCAS.2001.921050 * |
Also Published As
Publication number | Publication date |
---|---|
IL283974A (en) | 2021-07-29 |
EP3899867A1 (fr) | 2021-10-27 |
SG11202106379SA (en) | 2021-07-29 |
US20220067947A1 (en) | 2022-03-03 |
FR3090969B1 (fr) | 2022-06-03 |
US12020441B2 (en) | 2024-06-25 |
FR3090969A1 (fr) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8208746B2 (en) | Adaptive PSF estimation technique using a sharp preview and a blurred image | |
EP2400460B1 (fr) | Procédé d'évaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopiloté | |
EP2572319B1 (fr) | Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position | |
US8264553B2 (en) | Hardware assisted image deblurring | |
CN108073857B (zh) | 动态视觉传感器dvs事件处理的方法及装置 | |
US8395672B2 (en) | Imaging device that detects inclination of image and apparatus in a rolling direction | |
US20160163053A1 (en) | Depth map generation | |
CN111133747A (zh) | 视频稳定 | |
US20070019883A1 (en) | Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching | |
WO2016066538A1 (fr) | Procédé d'estimation d'un état de navigation contraint en observabilité | |
CN107749987B (zh) | 一种基于块运动估计的数字视频稳像方法 | |
WO2012175888A1 (fr) | Génération de données de carte | |
CN110660098A (zh) | 基于单目视觉的定位方法和装置 | |
WO2010104969A1 (fr) | Estimation de fonctions d'étalement ponctuel à partir d'images floutées par mouvement | |
CN109029425A (zh) | 一种采用区域滤波的模糊星图复原方法 | |
CN116597168B (zh) | 车载激光点云与全景影像的匹配方法、装置、设备及介质 | |
FR2952743A3 (fr) | Procede d'estimation du mouvement d'un instrument d'observation a defilement survolant un corps celeste | |
FR3027144A1 (fr) | Procede et dispositif de determination de mouvement entre des images video successives | |
WO2020127774A1 (fr) | Dispositif et procédé d'estimation de mouvement d'un capteur d'images entre deux images, programme d'ordinateur associé | |
EP3070643B1 (fr) | Procédé et système de reconnaissance d'objets par analyse de signaux d'image numérique d'une scène | |
Rajakaruna et al. | Image deblurring for navigation systems of vision impaired people using sensor fusion data | |
WO2014108652A1 (fr) | Estimation de mouvement d'une image | |
Vasilyuk | Calculation of motion blur trajectories in a digital image as a special problem of inertial navigation | |
EP3701492A1 (fr) | Procede de restauration d'images | |
Sun et al. | A low-cost and robust optical flow CMOS camera for velocity estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19821130 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2019821130 Country of ref document: EP Effective date: 20210721 |