Nothing Special   »   [go: up one dir, main page]

WO2000010119A1 - Verfahren zum erkennen von objekten in digitalisierten abbildungen - Google Patents

Verfahren zum erkennen von objekten in digitalisierten abbildungen Download PDF

Info

Publication number
WO2000010119A1
WO2000010119A1 PCT/EP1999/005946 EP9905946W WO0010119A1 WO 2000010119 A1 WO2000010119 A1 WO 2000010119A1 EP 9905946 W EP9905946 W EP 9905946W WO 0010119 A1 WO0010119 A1 WO 0010119A1
Authority
WO
WIPO (PCT)
Prior art keywords
graph
bundle
jets
jet
image
Prior art date
Application number
PCT/EP1999/005946
Other languages
English (en)
French (fr)
Inventor
Christian Eckes
Efthimia Kefalea
Christoph Von Der Malsburg
Michael Pötzsch
Michael Rinne
Jochen Triesch
Jan C. VORBRÜGGEN
Original Assignee
Christian Eckes
Efthimia Kefalea
Christoph Von Der Malsburg
Poetzsch Michael
Michael Rinne
Jochen Triesch
Vorbrueggen Jan C
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Christian Eckes, Efthimia Kefalea, Christoph Von Der Malsburg, Poetzsch Michael, Michael Rinne, Jochen Triesch, Vorbrueggen Jan C filed Critical Christian Eckes
Priority to US09/762,806 priority Critical patent/US7113641B1/en
Priority to AU58519/99A priority patent/AU5851999A/en
Priority to EP99945979A priority patent/EP1104570A1/de
Publication of WO2000010119A1 publication Critical patent/WO2000010119A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Definitions

  • the invention relates to a method for the automated recognition of one or more structures or one or more objects in digitized image data.
  • a method for facial recognition is known from DE 44 06 020.
  • so-called jets are extracted from a digitized image with gabor filters of different sizes and orientations, which are arranged at the nodes of a displaceable, scalable and deformable grid.
  • This graph i.e. the structure of the lattice and the jets associated with the nodes of the lattice are compared to a reference graph that includes the structure to be recognized.
  • the optimal shape of the grid is determined by a two-stage optimization of a graph comparison function. In the first phase, the size and position of the graph are optimized simultaneously; in the second phase, the intrinsic shape of the graph is optimized.
  • Another method is known from the field of face recognition, in which the comparison between the image of a head recorded with a video camera and several images of heads stored in a database is realized by a flexible imaging mechanism, the best possible image being determined by an optimization method (see Lades et al., IEEE Transactions on Computers, 42, 300-311).
  • a disadvantage of this method is that the method does not appear to be suitable for processing large amounts of data.
  • Lades et al. recognize an image of a head from a database consisting of images of 87 people; in a large number of applications, however, significantly larger reference databases can be expected.
  • the object of the invention is to improve the known methods in such a way that their robustness compared to less optimal image data is increased in comparison with the known method, wherein it should additionally be ensured that the method is compatible with conventional ones Funds can be realized.
  • This task is solved by a method for the automated recognition of one or more structures in digitized image data with the steps:
  • each reference graph having a network-like structure, which is defined in each case by assigning certain reference image data to nodes which are linked to one another in a predetermined manner and comprising jets, wherein a jet is assigned to each node and each jet comprises at least one partial jet which by folding at least one class of filter functions with different sizes and / or orientations with the reference image data of the corresponding reference image at the specific node or by folding at least one class of filter functions with different Sizes and / or orientations with color-segmented reference image data of the corresponding reference image at the specific node or by color information about the reference image data at the specific node or by means of statistical methods the texture descriptions of the reference image data obtained at the particular node or by motion vectors extracted from temporally successive reference images at the particular node,
  • a plurality of reference graphs can furthermore be made available, and those reference graphs which have network-like structures which are topologically identical, ie only by themselves distinguishing the lengths of corresponding links can be combined into a reference bundle graph.
  • a reference bundle graph in this case comprises a network-like structure which is defined by nodes which correspond to the nodes of the reference graphs and by links which are determined by averaging the corresponding links of the reference graphs, and bundle jets, each bundle being made up of the subjets which constitute the Jets correspond to the respective nodes which correspond to the reference graphs combined in the reference bundle graph.
  • an optimal image graph for the or each reference bundle graph is determined.
  • the optimal image graph for a specific reference bundle graph represents the optimal adaptation to this and is determined by projecting the network-like structure of the specific reference bundle graph into the image data, thereby defining the structure of the image graph, and determining sub-jets that at least a part of the Correspond to sub-jets that were used to determine the sub-jets of the reference graphs on which the specific reference bundle graph is based. Furthermore, the projection of the network-like structure of the specific reference bundle graph is varied until a graph comparison function, which compares the jets of the image graph with the corresponding bundle jets of the specific reference bundle graph, becomes optimal, partial jets of the image graph being compared with partial jets in the corresponding bundle jet of the specific reference bundle graph becomes. Finally, each structure is assigned to the reference image that corresponds to the reference graph or the reference graph from the reference bundle graph or graphs for which the graph comparison function is optimal in relation to the optimal image graph determined for it.
  • reference bundle graphs By using reference bundle graphs, the number of structures available for comparison can be increased with the same number of reference images, or in other words, a reference bundle graph allows a complex structure object class to be represented with a few examples. animals.
  • reference bundle graphs can be used to model such structure object classes using examples from individuals.
  • reference graphs can be combined to form one or more reference bundle graphs. This allows special cases within an object class to be treated separately or not taken into account.
  • all the reference graphs provided can be combined into one or more reference bundle graphs.
  • the methods described above can be developed in such a way that the structure of the jets assigned to the nodes, which is determined by the sub-jets, depends on the respective node.
  • Edge filters can also be used on the structure edge, for example.
  • the structure of the jets assigned to the nodes which is determined by the sub-jets, can be identical for all nodes.
  • a graph comparison function can advantageously be used, which includes a jet comparison function which takes into account the similarity of the jets corresponding to one another.
  • the graph comparison function can include a comparison function for the network-like structure, which takes into account the metric similarity of the image graph with the corresponding reference graph or the corresponding reference bundle graph.
  • the graph comparison function is expediently defined as the weighted sum of the jet comparison function and the comparison function for the network-like structure.
  • the jet comparison function can be defined as a function of individual jet comparison functions of corresponding jets.
  • the jet comparison function can advantageously be defined as a weighted sum of the individual jet comparison functions and / or as a weighted product from the individual jet comparison functions.
  • partial jets of the corresponding jets can expediently be taken into account and a single jet comparison function can be defined as a function of partial jet comparison functions.
  • the individual jet comparison function can advantageously be a weighted sum of the partial jet comparison functions and / or a weighted product of the partial jet comparison functions.
  • the bundle jets of the reference bundle graph B ⁇ can be divided into sub-bundle jets], and the jet comparison function between the sub-bundle jets ⁇ of the reference bundle graph and the corresponding sub-jets j n 'of the image graph G' for n nodes for m recursions can be calculated according to the following formulas :
  • ⁇ n is a weighting factor for the nth node n and the comparison function S n (B ", J n ') for the nth node of the reference bundle graph with the nth node of the image graph is given by:
  • ⁇ (M) max ( ⁇ , ⁇ [ 1) (M ⁇ 1) )], or
  • the sub-bundle jets of the reference bundle graph or graphs can only contain features which are folded by folding at least one class of filter functions with different sizes and / or orientations with the reference image data of the corresponding reference image at the specific node or by folding at least one class of filter functions with different sizes and / or orientations with color-segmented reference image data of the corresponding reference image at the particular node or by color information about the reference image data at the particular node or through texture descriptions of the corresponding reference image at the particular node obtained with statistical methods or by motion vectors at the particular node extracted from temporally successive reference images have been determined.
  • the sub-bundle jets of the reference bundle graph or graphs can only contain features that result from a reference graph.
  • sub-bundle jets of the one or more reference bundles can also comprise mixtures of these two aforementioned features.
  • a step for determining the significance of the recognition can be provided after the recognition of each structure.
  • an estimator can be used, for example, which takes into account both the optimal graph comparison function and the non-optimal graph comparison functions.
  • An estimator is particularly distinguished in this case, in which the distance between the values of the non-optimal graph comparison functions and the value of the optimal graph comparison function is determined.
  • these measures also provide information about the quality of the structure recognition.
  • each structure can be assigned to the reference images that correspond to the reference graphs or the reference graphs from the reference bundle graphs for which the values of the graph comparison functions lie in a predetermined range. If the values are not in the predetermined range, this means that a structure cannot be identified sufficiently. Accordingly, This further training is suitable for applications in which decisions are to be made based on the recognition process, such as for access control.
  • the color information can advantageously include color tone values and / or color saturation values and / or brightness values determined from the reference image data or the image data.
  • the reference graphs or the reference bundle graphs can be recalculated before each application, which is expedient in applications in which the reference data frequently change, in particular are updated, it is expedient in most applications that the step of making the reference graphs available or the reference bundle graph includes the retrieval of the reference graphs or the reference bundle graphs from a central database and / or a decentralized database, such as from chip cards.
  • the network-like structure of the reference graph in the form of a regular grid can be used, the nodes and links of which form right-angled meshes.
  • an irregular grid can be used as the network-like structure of the reference graph, the nodes and links of which are adapted to the structure to be recognized.
  • the nodes can be assigned characteristic points, so-called landmarks, to the structure to be recognized.
  • the jets are therefore determined at the characteristic points of the structure.
  • the characteristic see points when comparing the image data with the reference data is taken into account, whereby the significance with which a structure is recognized can be increased.
  • Gabor filter functions and / or Mallat filter functions can preferably be used as a class of filter functions for convolution with the reference image data or image data and / or as a class of filter functions for convolution with the color-segmented reference image data or image data.
  • the projection of the network-like structure of the specific reference graph or the specific reference bundle graph can comprise centering the reference graph or the specific reference bundle graph in the image.
  • the projection of the network-like structure of the specific reference graph or the specific reference bundle graph comprises a shift and / or a rotation of the centered reference graph or the centered reference bundle graph.
  • the projection of the network-like structure of the specific reference graph or the specific reference bundle graph can comprise scaling the centered reference graph or the centered reference bundle graph.
  • the significance and speed of recognition can be increased in particular if the structure to be recognized has a different size in the image data and the reference data.
  • the shift and / or the rotation and the scaling of the centered reference graph or of the centered reference bundle graph can be carried out simultaneously, whereby the recognition of a structure can be accelerated.
  • the projection of the network-like structure can include local distortions of the centered reference graph. This version is particularly suitable if image data and reference data have been recorded at different recording angles.
  • Such a local distortion can expediently be brought about by locally displacing a corresponding node of the centered reference graph.
  • the displacement or the scaling or the rotation can advantageously be determined from the comparison of the image graph with the corresponding reference graph or the corresponding reference bundle graph. This leads to a significant increase in the speed of recognition.
  • FIG. 1 shows an illustration of a hand position with a reference graph to explain an embodiment of the invention
  • Figure 2 shows the reference graph of Figure 1;
  • FIG. 3 shows a schematic illustration for determining a graph from a reference image according to an embodiment of the invention
  • FIG. 6 shows examples of images of a manual position with different backgrounds, which was compared with the images of FIG. 4 by means of an embodiment of the method according to the invention.
  • the various embodiments of the invention are described below using a method for recognizing the position of a hand, hereinafter referred to as the hand position.
  • this description is not to be understood as a restriction, but only as an example of a method for recognizing structures or objects in images.
  • FIG. 1 shows an example 20 of a hand in a certain position.
  • Figure 20 must be in digitized form.
  • the digitized form can either result directly from the recording process used, for example in Using a CCD camera, or must be digitized by converting an analog image, such as a conventional photograph.
  • a digitized image is typically in the form of a pixel field of a predetermined size.
  • Each pixel is assigned a horizontal and a vertical position x. Therefore, the pixel x is understood below to mean the pixel to which the position x has been assigned. Furthermore, each pixel is assigned a gray value and / or color information value, such as an HSI value.
  • the predetermined pixels are obtained by first projecting a net-shaped structure 21, which will be referred to as a grid for the sake of simplicity, into the image 20.
  • the grid used in the first embodiment comprises 15 nodes 22a, 22b, 22c, ... and 19 links, i.e. Connections between two nodes.
  • the links between the nodes 22a and 22b or 22b and 22c are provided with the reference symbols 23ab and 23bc.
  • the predetermined pixels are obtained by determining the pixels that correspond to the projection of the nodes.
  • an object-adapted grid is used, ie the nodes are assigned to characteristic points in the figure.
  • the nodes are therefore allocated to the two fingers and the back of the hand.
  • the invention is not limited to such object-adapted grids. Rather, grids in the actual sense, i.e. regular grids, can also be used. The decision as to which grid shape is appropriate depends on the respective application. Object-adapted lattice shapes generally lead to more significant recognition than regular lattices, but are more complicated to handle.
  • FIG. 3 shows a schematic illustration which explains how a representation in graph form can be obtained from FIG. 20, which, as will be explained, can be compared with other graphs, in particular with reference graphs.
  • two different classes 28 and 29 of features are used to compare the image with a reference image.
  • the first class of features 28a, ..., 28i is defined as the result of convolving the image on a predetermined pixel with a given filter function.
  • so-called complex Gabor filters are used as filter functions. These filters can be represented by the following formula:
  • the size and the orientation of the filter function can be determined by choosing the wave vector k.
  • Fig. 3 (c) the real parts of two such different filter functions are shown with 24a and 24b.
  • the value 0 is represented by a medium gray; positive values are lighter and negative values are darker.
  • the filter function 24a shown in FIG. 3 (c) has a low frequency or a small wave vector k, with an orientation of approximately 60 degrees with respect to the horizontal.
  • the filter function 24b has a larger frequency or a larger wave vector k, with an orientation of approximately 90 degrees with respect to the horizontal.
  • the feature J ⁇ x) can be calculated at a predetermined pixel x by:
  • a part of these features is shown schematically in the subjet 28.
  • the features 28a, 28b and 28c have been obtained by a filter function with a constant size and, as shown by the hatching, with different orientations.
  • features 28d, 28e and 28f as well as 28g, 28h and 28i result from a convolution with a smaller filter function.
  • any other filter functions can also be used.
  • so-called Mallat filters are used in accordance with a further embodiment of the invention.
  • the second class of features 29a, ..., 29i is defined as a result of convolution on a predetermined pixel of data resulting from conventional color space segmentation of the image data with a given filter function.
  • the color space segmentation was carried out with respect to the skin color.
  • the color space segmentation in Depending on the application, other colors can be performed.
  • Fig. 3 (b) the image data 22 is shown after the color space segmentation.
  • the convolution of the color space-segmented data was carried out analogously to the convolution of the image data, i.e. carried out with the same Gabor filters of the same size and orientation. A detailed description of this folding operation is therefore unnecessary and in this connection reference is made to the corresponding sections for folding the image data with the Gabor filters.
  • FIG. 3 (e) the color space segmented image data folded with the filter functions is shown in FIG. 3 (e).
  • Figures 25a and 25b in Fig. 3 (e) represent the real parts of a convolution of the color segmented image data with the filters, the real parts of which are designated in Fig. 3 (c) with 24a and 24b.
  • the sub-jets 28 and 29 form the jet 27 in the first embodiment.
  • the jet 27 finally comprises 80 features in this embodiment.
  • the convolution of the filter functions with the color-segmented data is not used as the second class, but rather color information obtained from the image data, such as hue, color saturation and intensity (HSI) for the pixel.
  • HSI hue, color saturation and intensity
  • a single jet is therefore composed of 40 features which result from the above-described convolution of the image data with the gabor filter functions and from the HSI triple and thus comprises 43 features.
  • a weighted Euclidean distance in the HSI color space is expediently used as a comparison function between two HSI triples.
  • a jet is composed of three classes.
  • the first class includes the features that result from the convolution of the image data with the Gabor filters (Gabor features); the second class includes the features that result from the convolution of the color space segmented image data with the Gabor filters (color lab features); and the third class comprises the HSI triples (color information) obtained from the image data.
  • a texture description obtained by statistical methods can be used as an alternative or in addition to the classes described above.
  • Such texture descriptions are For example, the mean gray value, the variance of the gray value distribution, the co-variance matrix of the gray value distribution, the entropy, the orientation of the gray value structure, mean scales of the structure in different directions, the range of variation of the local orientation, the range of variation of the spatial scales, the sequence and the arrangement different structural elements.
  • motion vectors are defined as a class in a further embodiment.
  • Such motion vectors can be calculated from two successive images using differential geometric methods (differential methods), correlation methods and filter methods.
  • differential geometric methods differential methods
  • correlation methods correlation methods
  • filter methods filter methods
  • a reference map must be provided in the form of a graph, ie in the form of a reference graph. This can be done, for example, by calling up the reference graph from a central database or a decentralized database, for example from chip cards.
  • this reference graph G is determined using one of the methods described above.
  • a grid as shown for example in FIG. 2, is accordingly projected into the reference image.
  • the jets are determined at the nodes of the grid.
  • the jets of the reference graphs should contain at least the feature classes that should also be determined for the comparison graph.
  • one projects the grid of the reference image (reference grid) into the comparison image and calculates the jets corresponding to this grid for the comparison image.
  • reference grid reference grid
  • the jets calculated in this way together with the structure of the projected grid finally form the comparison graph G '.
  • Different images can be used to project the reference grid into the comparison image, depending on the expected differences between reference images and comparison images.
  • the simplest projection namely centering the reference grid in the comparison image, is suitable, for example, if the reference image and comparison image have the same size and position with respect to the image center and were recorded at the same angle.
  • the following projections can optionally be carried out for this simple projection.
  • This mapping can be provided if the sizes of the reference mapping and the comparison mapping are different.
  • S S Jet + ⁇ S metric ⁇ (6)
  • S Jet denotes the jet comparison function, ie a suitable function that evaluates the similarity of the jets at corresponding points on the two graphs
  • S Metr ⁇ k denotes a suitable function that compares the similarity of the metrics of the two grids with one another.
  • S M ⁇ t ⁇ k strongly depends on the projection used.
  • ( ⁇ > 0) denotes the weighting of the two comparison functions to each other, ⁇ can also be set to zero; this means that the similarity of the graph metrics is not taken into account. This value is particularly useful if only centering or displacement is selected as the projection, or in other words if the topology of the reference graph and the comparison graph is identical.
  • the comparison functions of the subjets for the respective classes k must first be calculated.
  • the features of which result from convolution of the image data and the image data segmented in the color space with Gabor filters, k would be 2.
  • a sub-jet comparison function is used, ie a function which depends on the amplitudes a and a,' of the two Depends on subjets and has the following form:
  • phase-sensitive comparison function can also be used, for example with the following form:
  • k j is the wave vector of the corresponding Gabor filters and d is an estimated displacement vector that compensates for rapid phase shifts, d is determined by the fact that S ⁇ in its Taylor expansion is internal
  • a single jet comparison function for corresponding individual jets can be formed from the partial jet comparison functions for the corresponding partial jets, that is to say for the characteristics of a class:
  • S k (j .j k ') are the partial jet comparison functions that can be calculated according to equations (7) or (8); ⁇ k are weighting coefficients that describe the contribution of a single subjet to the single jet comparison function S (j, j ').
  • the jet comparison function S Jet for all corresponding jets of a reference graph G and a comparison graph G ′ is formed from the individual jet comparison functions for the individual jets.
  • Various functions can also be used for this, depending on the application.
  • the comparison function for n jets can be formed according to:
  • S n (J n , J n ') are the individual jet comparison functions which can be calculated according to equations (10) to (13); ⁇ are weighting coefficients, which describe the contribution of a single jet to the jet comparison function S Jel .
  • the selection of the suitable comparison function for a given structure of the comparison images and the reference images can be determined by comparison tests with the comparison images and the reference images and is therefore within the range of the average skill of a person skilled in the art.
  • the comparison graph can now be optimally adapted to the reference graph.
  • the projection of the reference grid in the comparison image is varied until the graph comparison function assumes an optimal value (in the case of the comparison functions described above, this is a minimum).
  • the comparison image can also be used to compare several reference images.
  • the optimal adaptation to each reference image and the graph comparison function for this optimal adaptation are determined for the comparison image using the method described above.
  • the reference map which has the greatest similarity to the comparison map can be determined.
  • a measure of the significance of the similarity can be determined for all reference images by evaluating the graph comparison functions. Depending on the degree of similarity required, different definitions can be used for a significant recognition. For example, the mean value S and the variance ⁇ s can be formed from all the graph comparison functions for the non-optimal reference graphs. A significant similarity could be assumed if
  • This embodiment differs from the previously described embodiments in the structure of the reference graphs, which are compared with the comparison graph.
  • a reference graph was created from a single reference image
  • a reference bundle graph results from several reference images.
  • M model graphs are created from M images, which are summarized in a so-called reference bundle graph.
  • All M model graphs have the same qualitative structure, that is to say they each have N nodes which are connected to one another by a predetermined grid. However, it is permissible here that the lengths of two correspond to one another. the links are different. Only the topological identity of the model graph is required.
  • the structure of the lattice can have a regular shape, as shown here, or an irregular shape.
  • the grids used in the previously discussed embodiments that is to say a regular nxm grating or an irregular object-adapted grating, can accordingly be used.
  • the corresponding jets of the M model graphs also differ.
  • the M model graphs are finally combined into a bundle graph, as explained below.
  • the mean distance vectors ⁇ - tl between nodes i and j in the bundle graph are determined by:
  • ⁇ TM is the distance vector between nodes i and j in the model graph m.
  • Bundle jets of the M model graphs are also assigned to the nodes of the bundle graph. These bundle jets include all sub-jets that were determined when the reference graphs were created. Accordingly, a jet of the bundle graph comprises the M corresponding jets of the M model graphs. In other words, a jet of the reference bundle graph is constructed from the sub-jets, which each correspond to the sub-jets of the model graphs.
  • the bundle jets are assigned to sub-bundle jets.
  • the characteristic classes, the reference images or mixed forms of the two can be used, for example, as an assignment criterion.
  • the sub-bundle jets When assigned to feature classes, the sub-bundle jets only comprise the features of a single feature class.
  • the jet comparison function S jet is determined here, as will be explained in the following.
  • the comparisons of the partial jets with the partial bundle jets are functionally related to the comparison function for the Jet J with the bundle graph B M :
  • the function ⁇ can be determined using the following recursion:
  • ⁇ (0) (M) ⁇ ⁇ , ⁇ [ 1) (M [ 1) ), or (25)
  • ⁇ (0) (M) ⁇ ( ⁇ [ 1) (M [ 1) )) ⁇ ' , or (26)
  • ⁇ (0) (M) max ⁇ , ⁇ ⁇ 1) (M 1) ) ⁇ , or (27)
  • the jet comparison function S Jet for all corresponding jets of a reference bundle graph B M and a comparison graph G ' is finally formed.
  • Various functions can also be used for this, depending on the application.
  • the comparison function for n nodes can be formed according to:
  • This comparison function can finally be used in equation (6) to determine the graph comparison function.
  • the jets with the maximum similarity are selected from the bundle graph.
  • a bundle graph can be treated like a single graph, it is also possible to combine several reference bundle graphs, one reference bundle graph and one or more reference graphs in a database with which the comparison graphs are to be compared.
  • Each reference graph has 15 nodes and 20 links. The nodes were manually distributed at anatomically significant points.
  • FIG. 6 shows various examples of a hand position in front of different backgrounds. A total of 29 backgrounds were used, five of which had a high level of skin tone, eleven had a medium level of skin tone and eight had a low level of skin tone.
  • the first reference bundle graph contained all Gabor features
  • the second reference bundle graph all Color Laboratory features
  • the third reference bundle graph all HSI features.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Das Verfahren umfaßt die Schritte (a) Zurverfügungstellen wenigstens eines Referenzgraphen aus Referenzbilder, wobei der oder jeder Referenzgraph eine netzartige Struktur, die jeweils dadurch definiert wird, daß bestimmten Referenzbilddaten Knoten, die durch Links in vorbestimmter Weise miteinander verbunden sind, zugewiesen werden, und Jets, wobei jedem Knoten ein Jet zugeordnet ist und jeder Jet wenigstens einen Teiljet umfaßt, der durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentierten Referenzbilddaten oder durch Farbinformationen über die Referenzbilddaten oder durch Texturbeschreibungen des entsprechenden Referenzbildes, oder durch Bewegungsvektoren an dem bestimmten Knoten ermittelt wird, (b) Ermitteln eines optimalen Bildgraphen aus den digitalisierten Bilddaten für jeden Referenzgraphen, wobei der optimale Bildgraph für einen bestimmten Referenzgraphen die optimale Anpassung an diesen darstellt und (c) Zuordnen der oder jeder Struktur zu dem Referenzbild, das dem Referenzgraphen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermittelten optimalen Bildgraphen optimal ist.

Description

VERFAHREN ZUM ERKENNEN VON OBJEKTEN IN DIGITALISIERTEN ABBILDUNGEN
Gebiet der Erfindung
Die Erfindung betrifft ein Verfahren zum automatisierten Erkennen einer oder mehrerer Strukturen bzw. eines oder mehrerer Objekte in digitalisierten Bilddaten.
Stand der Technik
Verfahren zum automatisierten Erkennen eines Objekts in digitalisierten Bilddaten sind im Stand der Technik bekannt.
So ist beispielsweise aus der DE 44 06 020 ein Verfahren zur Gesichtserkennung bekannt. Gemäß diesem Verfahren werden aus einem digitalisierten Bild mit Gaborfiltern verschiedener Größe und Orientierung, sogenannte Jets extrahiert, die an den Knoten eines verschiebbaren, skalierbaren und deformierbaren Gitters angeordnet werden. Dieser Graph, d.h. die Struktur des Gitters und die mit den Knoten des Gitters assoziierten Jets, werden mit einem Referenzgraphen, der die zu erkennende Struktur umfaßt, verglichen. Hierzu wird die optimale Form des Gitters durch eine zweistufige Optimierung einer Graphenvergleichsfunktion bestimmt. In der ersten Phase werden Größe und Position des Graphen simultan optimiert; in der zweiten Phase wird die intrinsische Form des Graphen optimiert.
Es hat sich allerdings gezeigt, daß ein erfolgreiches Erkennen einer Struktur oder eines Objekts mit diesem Verfahren sehr stark von der Qualität, insbesondere der Beschaffenheit des Hintergrunds, der Bilddaten, welche die zu erkennende Struktur beinhalten, abhängt. So können mit diesem Verfahren zwar gute Ergebnisse erzielt werden, wenn die Struktur und das Objekt vor einen neutralen Hintergrund aufgenommen worden sind. In Anwendungen, in denen es jedoch nicht möglich ist, die Bilddaten vor einem neutralen Hintergrund aufzunehmen, können bei dem bekannten Verfahren allerdings Probleme auftreten, die letztlich dazu führen können, daß Strukturen und Objekte nur mangelhaft erkannt werden.
Aus dem Gebiet der Gesichtserkennung, ist ein weiteres Verfahren bekannt, bei dem der Vergleich zwischen dem mit einer Videokamera aufgenommenen Bild eines Kopfes und mehreren in einer Datenbank in gespeicherten Bildern von Köpfen durch einen flexiblen Abbildungsmechanismus realisiert wird, wobei die bestmögliche Abbildung durch ein Optimierungsverfahren bestimmt wird (siehe Lades et al., IEEE Transactions on Computers, 42, 300-311 ).
Ein Nachteil dieses Verfahrens, ist es allerdings, daß das Verfahren nicht zur Bearbeitung großer Datenmengen geeignet scheint. So konnten Lades et al. zwar ein Bild eines Kopfes aus einer Datenbank, die aus Bildern von 87 Personen bestand, erkennen; bei einer Vielzahl von Anwendungen ist allerdings mit wesentlich größeren Referenzdatenbanken zu rechnen.
Darüber hinaus wurde das Verfahren von Lades et al. nur mit einer speziellen Hardware-Konfiguration, nämlich mit Transputem, d.h. mit mehreren in vorbestimmter Weise miteinander verschalteten Mikroprozessoren, realisiert.
Angesichts dieser Nachteile der Verfahren gemäß dem Stand der Technik liegt der Erfindung die Aufgabe zugrunde, die bekannten Verfahren dahingehend zu verbessern, daß ihre Robustheit gegenüber weniger optimalen Bilddaten im Vergleich zum bekannten Verfahren erhöht wird, wobei zusätzlich gewährleistet sein soll, daß das Verfahren mit herkömmlichen Mitteln realisiert werden kann. Beschreibung der Erfindung
Diese oben stehende Aufgabe wird gelöst durch ein Verfahren zum automatisierten Erkennen einer oder mehrerer Strukturen in digitalisierten Bilddaten mit den Schritten:
(a) Zurverfügungstellen wenigstens eines Referenzgraphen aus digitalisierten Referenzbilddaten entsprechender Referenzbilder, wobei der oder jeder Referenzgraph eine netzartige Struktur, die jeweils dadurch definiert wird, daß bestimmten Referenzbilddaten Knoten, die durch Links in vorbestimmter Weise miteinander verbunden sind, zugewiesen werden, und Jets umfaßt, wobei jedem Knoten ein Jet zugeordnet ist und jeder Jet wenigstens einen Teiljet umfaßt, der durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbseg- mentierten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen der Referenzbilddaten an dem bestimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenzabbildungen extrahierten Beweguπgsvekto- ren an dem bestimmten Knoten ermittelt wird,
(b) Ermitteln eines optimalen Bildgraphen aus den digitalisierten Bilddaten für jeden Referenzgraphen, wobei der optimale Bildgraph für einen bestimmten Referenzgraphen die optimale Anpassung an diesen darstellt und ermittelt wird durch ein Projizieren der netzartigen Struktur des bestimmten Referenzgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und Ermitteln von Teiljets des Bildgraphen an den durch seine Struktur definierten Knoten, wobei die Teiljets mindestens einem Teil der ermittelten Teiljets des bestimmten Referenzgraphen entsprechen, und wobei die Projektion der netzartigen Struktur des bestimmten Refereπzgraphen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Jets des bestimmten Referenzgraphen vergleicht, optimal wird,
(c) Zuordnen der oder jeder Struktur zu dem Referenzbild, das dem Referenzgraphen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermittelten optimalen Bildgraphen optimal ist.
Durch dieses Verfahrens kann gleichzeitig qualitativ unterschiedliche Bildinformation, wie sie beispielsweise Faltungen der Klasse/Klassen von Filterfunktionen mit beliebigen Größen und/oder Orientierungen mit den Bilddaten und/oder Faltungen der Klasse/Klassen von Filterfunktionen mit beliebigen Größen und/oder Orientierungen mit farbsegmentierten Bilddateπ und/oder Farbinformation über die Bilddaten und/oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen der Bilddaten und/oder durch aus zeitlich aufeinanderfolgenden Abbildungen extrahierten Bewegungsvektoren darstellen, genutzt werden. Dies führt dazu, daß gegenüber dem Stand der Technik eine verbesserte Strukturerkennungsrate verwirklicht werden kann.
Außerdem läßt sich durch die Kombination qualitativ unterschiedlicher Bildinformation eine höhere Robustheit gegenüber den aus dem Stand der Technik bekannten Verfahren erzielen.
Gemäß einer Weiterbildung der Erfindung können weiterhin mehrere Referenzgraphen zur Verfügung gestellt werden, und diejenigen Referenzgraphen, welche netzartige Strukturen aufweisen, die topologisch identisch sind, d.h. sich nur durch die Längen einander entsprechender Links unterscheiden, können zu einem Refe- renzbündelgrapheπ zusammengefaßt werden. Ein derartiger Referenzbündelgraph umfaßt hierbei eine netzartige Struktur, die durch Knoten, welche den Knoten der Referenzgraphen entsprechen, und durch Links, die durch Mittelung der entsprechenden Links der Referenzgraphen ermittelt werden, definiert wird, und Bündeljets, wobei jeder Bündeijet aus den Teiljets, die den Jets an den jeweiligen Knoten der in dem Referenzbündelgraphen zusammengefaßten Referenzgraphen entsprechen, zusammengesetzt wird. Weiterhin wird gemäß dieser Weiterbildung ein optimaler Bildgraph für den oder jeden Referenzbündelgraphen ermittelt. Hierbei stellt der optimale Bildgraph für einen bestimmten Referenzbündelgraphen die optimale Anpassung an diesen dar und wird ermittelt durch ein Projizieren der netzartigen Struktur des bestimmten Referenzbündelgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und ein Ermitteln von Teiljets, die mindestens einem Teil der Teiljets entsprechen, die zur Ermittlung der Teiljets der dem bestimmten Referenzbündelgraphen zugrunde liegenden Referenzgraphen verwendet worden sind. Weiterhin wird die Projektion der netzartigen Struktur des bestimmten Referenzbündelgraphen, so lange variiert, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Bündeljets des bestimmten Referenzbündelgraphen vergleicht, optimal wird, wobei Teiljets des Bildgraphen mit Teiljets in dem entsprechenden Bündeljet des bestimmten Referenzbündelgraphen verglichen wird. Schließlich wird jede Struktur dem Referenzbild zugeordnet, das dem Referenzgraphen bzw. dem Referenzgraphen aus dem oder den Referenzbündelgraphen entspricht, für den die Graphenvergleichsfunkti- oπ in Bezug auf den für ihn ermittelten optimalen Bildgraphen optimal ist.
Durch die Verwendung von Referenzbündelgraphen können bei gleicher Anzahl von Referenzbildern die Menge der für den Vergleich zur Verfügung stehenden Strukturen erhöht werden, oder anders ausgedrückt erlaubt es ein Referenzbündelgraph eine komplexe Strukturobjektklasse mit wenigen Beispielen zu repräsen- tieren. Außerdem können durch Referenzbündelgraphen solche Strukturobjektklassen durch Beispiele von Individuen modelliert werden.
Hierbei kann, in Abhängigkeit von der jeweiligen Anwendung, also von den zu erkennenden Strukturen, lediglich ein Teil der zur Verfügung gestellten Referenzgraphen zu einem oder zu mehreren Referenzbündelgraphen zusammengefaßt werden. Hierdurch können Sonderfälle innerhalb einer Objektklasse separat behandelt werden oder unberücksichtigt bleiben.
Alternativ lassen sich auch alle zur Verfügung gestellten Referenzgraphen zu einem oder zu mehreren Referenzbündelgraphen zusammenfassen.
Die vorstehend beschriebenen Verfahren können derart weitergebildet werden, daß die Struktur der den Knoten zugeordneten Jets, die durch die Teiljets bestimmt ist, vom jeweiligen Knoten abhängig ist.
Hierdurch läßt sich ein a priori Wissen über die zu erkennenden Strukturen ausnützen. So kann beispielsweise bestimmte Bildinformation nur in einem Bereich, in dem sie tatsächlich signifikant ist, ausgewertet werden. Weiterhin können beispielsweise Kantenfilter am Strukturrand eingesetzt werden.
Alternativ kann die Struktur der den Knoten zugeordneten Jets, die durch die Teiljets bestimmt ist, für alle Knoten identisch sein.
Diese Weiterbildung zeichnet sich insbesondere dadurch aus, daß sie eine homogene Datenstruktur aufweist. Demnach kann das Verfahren durch eine relativ einfache Hard- und/oder Softwareimplementierung realisiert werden. In den zuvor beschriebenen Verfahren läßt sich vorteilhafterweise eine Graphenvergleichsfunktion einsetzen, die eine Jetvergleichsfunktion umfaßt, welche die Ähnlichkeit der einander entsprechenden Jets berücksichtigt.
Darüber hinaus kann die Graphenvergleichsfunktion eine Vergleichsfunktion für die netzartige Struktur umfassen, welche die metrische Ähnlichkeit des Bildgraphen mit dem entsprechenden Referenzgraphen bzw. dem entsprechenden Referenzbündelgraphen berücksichtigt. Zweckmäßigerweise wird die Graphenvergleichsfunktion in diesem Fall als gewichtete Summe der Jetvergleichsfunktion und der Vergleichsfunktion für die netzartige Struktur definiert.
Die Jetvergleichsfunktion kann als Funktion von Einzeljetvergleichsfunktionen einander entsprechender Jets definiert werden.
Hierzu kann die Jetvergleichsfunktion vorteilhafterweise als gewichtete Summe aus den Einzeljetvergleichsfunktionen und/oder als gewichtetes Produkt aus den Einzeljetvergleichsfunktionen definiert werden.
Zweckmäßigerweise lassen sich zur Ermittlung eines Einzeljetvergleichs Teiljets der entsprechenden Jets berücksichtigen, und eine Einzeljetvergleichsfunktion als Funktion von Teiljetvergleichsfunktionen definieren.
Vorteilhafterweise kann die Einzeljetvergleichsfunktion als gewichtete Summe der Teiljetvergleichsfunktionen und/oder als gewichtetes Produkt der Teiljetvergleichsfunktionen.
Insbesondere können auch unterschiedliche, knotenabhängige bzw. Einzeljetvergleichsfunktionen bzw. Teiljetvergleichsfunktionen eingesetzt werden. Im Zusammenhang mit den obenbeschriebenen Referenzbündelgraphen können die Bύndeljets des Referenzbündelgraphen Bω in Teilbündeljets ] geteilt werden, und die Jetvergleichsfunktion zwischen den Teilbündeljets \ des Referenzbündelgraphen und den entsprechenden Teiljets jn' des Bildgraphen G' für n Knoten für m Rekursionen gemäß folgender Formeln berechnet werden:
SJet(BM,G) = ∑ωnSn(B:Jn') , oder n
SJet(BM, ) = π(S π(B π . n ,) - Obei n
ωnein Wichtungsfaktor für den n-ten Knoten n ist und die Vergleichsfunktion Sn(B", Jn') für den n-ten Knoten des Referenzbündelgraphen mit dem n-ten Knoten des Bildgraphen gegeben ist durch:
S(BM,J') = Ω({Skl(bϊ1il ,)}) =:Ω(M)l mit
Ω( ) = ∑ωlΩ}1 (Mj1)) , oder
Figure imgf000010_0001
Ω(M) = max(ω ,Ω[1) (M<1) )] , oder
Ω(M) = min{ω ,Ω[1) (M|1) ) j , wobei jj M[1) = M
Figure imgf000010_0002
Ω[m-1)(M 1)) = π(ΩSm)(Mf ^ , oder i
Ω(m-1) (M(m-D sj = mgχ^ (m) (M(m) ^ _ odθr
Ω[m-1)( }m-1 ) = min{ω jΩ HM 5)} , wobei jjM<m) = M^ und mit
1 i
S(bM, j' ) = ∑ωnSnÜn , D . oder n
Figure imgf000011_0001
S(bM 1i') = min{ωBSn(iϊιr)}.
In diesem Fall können die Teilbündeljets des oder der Referenzbündelgraphen nur Merkmale enthalten, die durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentierten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenzbildern extrahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt worden sind. Alternativ können die Teilbündeljets des oder der Referenzbündelgraphen nur Merkmale enthalten, die aus einem Referenzgraphen resultieren.
Darüber hinaus können die Teilbündeljets des oder der Referenzgrpahenbündel auch Mischungen aus diesen beiden zuvor genannten Merkmalen umfassen.
Diese unterschiedlichen Vergleichsfunktionen ermöglichen es, das Verfahren an- wendungsorientiert so zu optimieren, daß eine möglichst hohe Erkennungsrate und eine möglichst hohe Geschwindigkeit erzielt wird.
Gemäß einer bevorzugten Weiterbildung der oben beschriebenen Verfahren kann nach dem Erkennen jeder Struktur ein Schritt zur Ermittlung der Signifikanz des Erkennung vorgesehen werden. Hierzu kann beispielsweise ein Schätzer verwendet werden, der sowohl die optimale Graphenvergleichsfunktion als auch die nicht optimalen Graphenvergleichsfunktionen berücksichtigt.
Besonders zeichnet sich hierbei ein Schätzer aus, bei dem der Abstand der Werte der nicht optimalen Graphenvergleichsfunktionen von dem Wert der optimalen Graphenvergleichsfunktion ermittelt wird.
Durch diese Maßnahmen erhält man neben der Objekt- bzw. Strukturerkennung auch eine Angabe über die Qualität der Strukturerkennung.
Gemäß einer weiteren vorteilhaften Weiterbildung der zuvor genannten Verfahren, kann jede Struktur den Referenzbildern zugeordnet werden, die den Referenzgraphen bzw. den Referenzgraphen aus den Referenzbündelgraphen entsprechen, für die die Werte der Graphenvergleichsfunktionen in einem vorbestimmten Bereich liegen. Falls die Werte nicht in dem vorbestimmten Bereich liegen, bedeutet dies, daß eine Struktur nicht hinreichend identifiziert werden kann. Demnach eig- net sich diese Weiterbildung für Anwendungen, in denen aufgrund des Erkennungsvorgangs Entscheidungen getroffen werden sollen, wie beispielsweise bei einer Zugangskontrolle.
Vorteilhafterweise kann in den vorstehend beschriebenen Verfahren die Farbinformation aus den Referenzbilddaten bzw. den Bilddaten ermittelte Farbtonwerte und/oder Farbsättigungswerte und/oder Helligkeitswerte umfassen.
Obwohl die Referenzgraphen bzw. die Referenzbündelgraphen vor jeder Anwendung neu berechnet werden können, was bei Anwendungen zweckmäßig ist, in den sich die Referenzdaten häufig ändern, insbesondere aktualisiert werden, ist es in den meisten Anwendungen zweckmäßig, daß der Schritt des Zurverfügungstel- lens der Referenzgraphen bzw. der Referenzbündelgraphen das Abrufen der Referenzgraphen bzw. der Referenzbündelgraphen aus einer zentralen Datenbank und/oder einer dezentralen Datenbank, wie beispielsweise von Chipkarten, umfaßt.
In den oben beschriebenen Verfahren kann gemäß einer bevorzugten Weiterbildung die netzartige Struktur des Referenzgraphen in Form eines regelmäßigen Gitters verwendet werden, dessen Knoten und Links rechtwinklige Maschen bilden.
Alternativ kann als netzartige Struktur des Referenzgraphen ein unregelmäßiges Gitter verwendet wird, dessen Knoten und Links an die zu erkennende Struktur angepaßt sind. Hierbei können den Knoten charakteπstische Punkte, sogenannten Landmarken, der zu erkennenden Struktur zugeordnet werden.
In dieser Weiterbildung werden die Jets demnach an den charakteristischen Punkten der Struktur ermittelt. Dadurch werden in erster Linie die charakteristi- sehen Punkte beim Vergleich der Bilddateπ mit den Referenzdaten berücksichtigt, wodurch die Signifikanz, mit der eine Struktur erkannt wird, erhöht werden kann.
Vorzugsweise können in den oben beschriebenen Verfahren als Klasse der Filterfunktionen zur Faltung mit den Referenzbilddaten bzw. Bilddaten und/oder als Klasse der Filterfunktionen zur Faltung mit den farbsegmentierten Referenzbilddaten bzw. Bilddaten Gabor-Filterfunktionen und/oder Mallat-Filterfunktionen verwendet werden.
Gemäß einer bevorzugten Weiterbildung der beschriebenen Verfahren kann die Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbündelgraphen eine Zentrierung des Referenzgraphen bzw. des bestimmten Referenzbündelgraphen in der Abbildung umfassen.
Es hat sich weiterhin als vorteilhaft erwiesen, wenn die Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbündelgraphen eine Verschiebung und/oder eine Drehung des zentrierten Referenzgraphen bzw. des zentrierten Referenzbündelgraphen umfaßt.
Hierdurch kann ein Erkennen der Struktur beschleunigt werden.
Insbesondere kann die Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbündelgraphen eine Skalierung des zentrierten Referenzgraphen bzw. des zentrierten Referenzbündelgraphen umfassen. Hierdurch kann insbesondere die Signifikanz und Geschwindigkeit eines Er- kennens erhöht werden, wenn die zu erkennende Struktur in den Bilddaten und den Referenzdaten eine unterschiedliche Größe aufweist. Die Verschiebung und/oder die Drehung sowie die Skalierung des zentrierten Re- ferenzgrapheπ bzw. des zentrierten Referenzbündelgraphen können hierbei simultan durchgeführt werden, wodurch das Erkennen einer Struktur beschleunigt werden kann.
Weiterhin kann die Projektion der netzartigen Struktur lokale Verzerrungen des zentrierten Referenzgraphen umfassen. Diese Ausführung eignet sich insbesondere, wenn Bilddaten und Referenzdaten unter verschiedenen Aufnahmewinkeln aufgenommen worden sind.
Eine derartige lokale Verzerrung kann zweckmäßigerweise durch eine lokale Verschiebung eines entsprechenden Knotens des zentrierten Referenzgraphen bewirkt werden.
Vorteilhafterweise können die Verschiebung bzw. die Skalierung bzw. die Drehung aus dem Vergleich des Bildgraphen mit dem entsprechenden Referenzgraphen bzw. dem entsprechenden Referenzbündelgraphen ermittelt werden. Dies führt zu einer wesentlichen Erhöhung der Geschwindigkeit des Erkennens.
Weitere bevorzugte Ausgestaltungen ergeben sich aus den Unteransprüchen sowie aus der Beschreibung bevorzugter Ausführungsformen des erfindungsgemäßen Verfahrens, die im folgenden unter Bezugnahme auf die Zeichnung beschrieben werden.
In der Zeichnung zeigen:
Fig. 1 eine Abbildung einer Handstellung mit einem Referenzgraphen zur Erläuterung einer Ausführungsform der Erfindung; Fig. 2 den Referenzgraphen von Fig. 1 ;
Fig. 3 eine schematische Darstellung zur Ermittlung eines Graphen aus einer Referenzabbildung gemäß einer Ausführungsform der Erfindung;
Fig. 4 eine schematische Darstellung zur Erläuterung einer weiteren Ausfüh- ruπgsfomn der Erfindung;
Fig. 5 Abbildungen von Handstellungen, aus denen eine Referenzgraphen- Datenbank ermittelt wurde;
Fig. 6 Beispiele von Abbildungen einer Handstelluπg mit verschiedenen Hintergründen, die mit den Abbildungen von Fig. 4 mittels einer Ausführung des erfindungsgemäßen Verfahrens verglichen wurde.
Im folgenden werden die verschiedenen Ausführungsformen der Erfindung anhand eines Verfahrens zum Erkennen der Stellung einer Hand, im folgenden als Handstellung bezeichnet, beschrieben. Diese Beschreibung ist allerdings nicht als Einschränkung zu verstehen, sondern nur als ein Beispiel eines Verfahrens zum Erkennen von Strukturen bzw. Objekten in Abbildungen.
In Fig. 1 ist als Beispiel eine Abbildung 20 einer Hand in einer bestimmten Stellung dargestellt.
Zur Durchführung des erfindungsgemäßen Verfahrens muß die Abbildung 20 in digitalisierter Form vorliegen. Die digitalisierte Form kann hierbei entweder aus dem verwendeten Aufnahmeverfahren direkt resultieren, beispielsweise bei Verwendung einer CCD-Kamera, oder muß durch Konvertierung eines analogen Bildes, wie beispielsweise einer herkömmlichen Fotografie, digitalisiert werden.
Ein digitalisiertes Bild liegt typischerweise in der Form eines Pixelfeldes einer vorbestimmten Größe vor. Jedem Pixel ist hierbei eine horizontale und eine vertikale Position x zugeordnet. Deshalb wird im folgenden unter dem Pixel x das Pixel verstanden, dem die Position x zugeordnet worden ist. Weiterhin ist jedem Pixel ein Grauwert und/oder Farbinformationswert, wie beispielsweise ein HSI- Wert zugewiesen.
Aus der digitalisierten Abbildung 20 bzw. den der digitalisierten Abbildung entsprechenden Bilddaten wird nun im Rahmen des erfindungsgemäßen Verfahrens an vorbestimmten Pixeln lokale Bildinformation, sogenannte Merkmale, die ihrerseits zu sogenannten Jets zusammengefaßt werden, extrahiert. Diese extrahierten Merkmale werden in Form eines Graphen angeordnet.
Die vorbestimmten Pixel werden dadurch erhalten, daß zunächst eine netzförmige Struktur 21 , die im folgenden der Einfachheit halber als Gitter bezeichnet wird, in die Abbildung 20 projiziert wird.
Wie aus Fig. 2, welche dieses Gitter 21 im Detail zeigt, ersichtlich, umfaßt das in der ersten Ausführungsform verwendete Gitter 15 Knotenpunkte 22a, 22b, 22c, ... und 19 Links, d.h. Verbindungen zwischen jeweils zwei Knotenpunkten. In Fig. 2 sind die Links zwischen den Knotenpunkten 22a und 22b bzw. 22b und 22c mit den Bezugszeichen 23ab und 23bc versehen.
Schließlich werden die vorbestimmten Pixel dadurch erhalten, daß die Pixel, die der Projektion der Knotenpunkte entsprechen, bestimmt werden. In der ersten Ausführungsform wird ein objektangepaßtes Gitter verwendet, d.h. die Knotenpunkte werden charakteristischen Punkten in der Abbildung zugeordnet. Zum Erkennen der Stellung einer Hand sind die Knotenpunkte, wie in Fig. 1 zu sehen ist, demnach den beiden Fingern und dem Handrücken zugeteilt.
Die Erfindung ist allerdings nicht auf derartige objektangepaßte Gitter beschränkt. Es lassen sich vielmehr auch Gitter im eigentlichen Sinn, also regelmäßige Gitter verwenden. Die Entscheidung, welche Gitterform zweckmäßig ist, hängt von der jeweiligen Anwendung ab. Objektangepaßte Gitterformen führen gegenüber regelmäßigen Gittern in der Regel zu einer signifikanteren Erkennung, sind allerdings in ihrer Handhabung komplizierter.
In Fig. 3 ist eine schematische Darstellung gegeben, anhand der erklärt wird, wie man aus der Abbildung 20 eine Darstellung in Graphenform erhält, die, wie noch erläutert wird, mit anderen Graphen, insbesondere mit Referenzgraphen, verglichen werden kann.
Nachdem durch das Gitter bestimmte Pixel festgelegt sind, wie in Fig. 3(a) gezeigt, wird die Extraktion der Merkmale in diesen Pixeln wie folgt durchgeführt.
In der ersten Ausführungsform werden zwei verschiedene Klassen 28 und 29 von Merkmalen zum Vergleich der Abbildung mit einer Referenzabbildung verwendet.
Die erste Klasse von Merkmalen 28a, ..., 28i ist als das Ergebnis einer Faltung der Abbildung an einem vorbestimmten Pixel mit einer gegebenen Filterfunktion definiert. Gemäß der ersten Ausführungsform werden hierbei sogenannte komplexe Gabor-Filter als Filterfunktionen verwendet. Diese Filter lassen sich durch folgende Formel darstellen:
Ψ,(x) = (1 )
Figure imgf000019_0001
Die durch Gleichung (1 ) dargestellten Gabor-Filter haben die Form einer durch einen Wellenvektor i beschriebenen ebenen Welle, die durch eine Gauß- Funktion mit einer Breite σ / k beschränkt ist, wobei σ = 2π . Durch Wahl des Wellenvektors k, kann die Größe und die Orientierung der Filterfunktion bestimmt werden.
Darüber hinaus erfüllen die Filterfunktionen die Bedingung:
∑ Ψ, = 0 . (2)
In Fig. 3(c) sind mit 24a und 24b die Realteile zweier derartiger verschiedener Filterfunktionen dargestellt. Der Wert 0 ist hierbei durch ein mittleres Grau dargestellt; positive Werte sind heller und negative Werte sind dunkler. Die in Fig. 3(c) dargestellte Filterfunktion 24a hat hierbei eine niedrige Frequenz bzw. einen kleinen Wellenvektor k, mit einer Orientierung von ungefähr 60 Grad gegenüber der Horizontalen. Die Filterfunktion 24b hat eine größere Frequenz bzw. einen größeren Wellenvektor k, mit einer Orientierung von ungefähr 90 Grad gegenüber der Horizontalen. Für einen vorgegebenen Wellenvektor kj , d.h. durch Wahl der Größe und der Orientierung der Filterfunktion, läßt sich somit das Merkmal J^x) an einem vorbestimmten Pixel x berechnen durch:
J,(x) = ∑l(x' )Ψj(x - x' ) . (3) ϊ'
I (x) bezeichnet hierin die Intensität.
In Abhängigkeit von dem Wellenvektor kj können nun für jedes Pixel x verschiedene Merkmale J,(x) berechnet werden, die in der ersten Ausführungsform in einem Teiljet für das Pixel x zusammengefaßt werden.
In den Abbildungen in Fig. 3(d), die mit 26a bzw. 26b bezeichnet sind, sind die Ergebnisse der Faltungen der Abbildung 20 mit den Filterfunktionen 24a bzw. 24b für alle Pixel x gezeigt.
Stellt man den Wellenvektor k, dar durch:
^kkvvccoossφφμ v+2 π k, v = 2 2 π , φu I nφJ μ 8 ' (4)
wobei v der Größenindex und μ der Orientierungsindex der Filterfunktion sind, werden entsprechend der ersten Ausführungsform die Merkmale für die Indizes μ e {0,...,7) und v e {0, ...,4) in einem Teiljet 28 des Jets 27 zusammengefaßt.
Insgesamt umfaßt der Teiljet 28 für das Pixel x somit n=40 Merkmale. In Fig. 3 ist ein Teil dieser Merkmale schematisch in dem Teiljet 28 dargestellt. Hierbei sind die Merkmale 28a, 28b und 28c durch eine Filterfunktionen mit konstanter Größe und, wie durch die Schraffur dargestellt, mit unterschiedlicher Orientierung erhalten worden. Gleiches gilt für die Merkmale 28d, 28e und 28f sowie 28g, 28h und 28i. Im Vergleich zu den Merkmalen 28a, 28b und 28c resultieren die Merkmale 28d, 28e und 28f sowie 28g, 28h und 28i aus einer Faltung mit einer kleineren Filterfunktion.
Neben den oben beschriebenen Gabor-Filterfunktionen lassen sich auch beliebige andere Filterfunktionen einsetzen. Als ein weiteres Beispiel einer Filterfunktionsklasse werden entsprechend einer weiteren Ausführungsform der Erfindung sogenannte Mallat-Filter verwendet werden.
Die Faltung der Abbildung mit diesen Mallat-Filtern läßt sich durch folgende Formel darstellen:
Figure imgf000021_0001
wobei * die Faltungsoperation bezeichnet, h und v für horizontal und vertikal stehen und s, (s, = s02', i eN) die Breite einer Gauß-Funktion darstellt, deren Ableitungen als Filterfuπktionen verwendet werden.
Die zweite Klasse von Merkmalen 29a, ..., 29i ist als Ergebnis einer Faltung an einem vorbestimmten Pixel von Daten, die aus einer herkömmlichen Farbraumsegmentierung der Bilddaten resultieren, mit einer gegebenen Filterfunktion definiert. Im vorliegenden Fall wurde die Farbraumsegmentierung bezüglich der Hautfarbe durchgeführt. Selbstverständlich kann die Farbraumsegmentierung, in Abhängigkeit von der Anwendung bezüglich anderer Farben durchgeführt werden. In Fig. 3(b) sind die Bilddaten 22 nach der Farbraumsegmentierung dargestellt.
In der vorliegenden Ausführungsform wurde die Faltung der farbraumsegmen- tierten Daten analog zur Faltung der Bilddaten, d.h. mit denselben Gabor-Filtern gleicher Größe und Orientierung durchgeführt. Daher erübrigt sich eine detaillierte Beschreibung dieser Faltuπgsoperation und es wird in diesem Zusammenhang auf die entsprechenden Abschnitte zur Faltung der Bilddaten mit den Gabor-Filtern verwiesen.
In diesem Zusammenhang bleibt noch anzumerken, daß in Fig. 3(e) die mit den Filterfunktionen gefalteten farbraumsegmentierten Bilddaten dargestellt sind. Die Abbildungen 25a und 25b in Fig. 3(e) stellen hierbei die Realteile einer Faltung der farbsegmentierten Bilddaten mit den Filtern dar, deren Realteile in Fig. 3(c) mit 24a und 24b bezeichnet sind.
Analog zu den durch Faltung der Bilddaten mit den Gabor-Filtern resultierenden Merkmale werden auch die durch Faltung der farbraumsegmentierten Bilddaten mit den Gabor-Filtern erhaltenen Merkmale in einem Teiljet 29 zusammengefaßt. Da der Größenindex und der Orientierungsindex der Filterfunktionen in dieser Ausführungsform wie oben beschrieben gewählt worden ist, enthält der Teiljet 29 ebenfalls n=40 Merkmale für das Pixel x , von denen die Merkmale 29a, ..., 29i repräsentativ dargestellt sind.
Selbstverständlich können auch in diesem Fall anstelle der Gabor-Filter andere Filterfunktionen, wie beispielsweise die bereits genannten Mallat-Filter eingesetzt werden. Die Teiljets 28 und 29 bilden den Jet 27 in der ersten Ausführungsform. Der Jet 27 umfaßt in dieser Ausführungsform schließlich 80 Merkmale.
Führt man die Extraktion der Merkmale an allen Gitterpunkten durch, erhält man schließlich den erwünschten Graphen, der die Struktur des Gitters 21 widerspiegelt und die Jets an den Punkten, die den Gitterpunkten entsprechen, aufweist.
Gemäß einer weiteren Ausführungsform werden als zweite Klasse nicht die Faltungen der Filterfunktionen mit den farbsegmentierten Daten sondern aus den Bilddaten erhaltene Farbinformation, wie beispielsweise Farbton, Farbsättigung und Intensität (HSI) für das Pixel verwendet. Ein einzelner Jet setzt sich gemäß dieser Ausführungsform demnach aus 40 Merkmalen, die aus der oben beschriebenen Faltung der Bilddaten mit den Gaborfilterfunktionen resultieren und aus dem HSI-Tripel zusammen und umfaßt somit 43 Merkmale.
Als Vergleichsfunktion zwischen zwei HSI-Tripeln wird zweckmäßigerweise ein gewichteter euklid'scher Abstand im HSI-Farbraum verwendet.
Darüber hinaus setzt sich in einer weiteren Ausführungsform ein Jet aus drei Klassen zusammen. Die erste Klasse umfaßt die Merkmale, die aus der Faltung der Bilddaten mit den Gabor-Filtern resultieren (Gabor-Merkmale); die zweite Klasse umfaßt die Merkmale, die aus der Faltung der farbraumsegmentierten Bilddaten mit den Gabor-Filtern resultieren (Farbgabor-Merkmale); und die dritte Klasse umfaßt die aus den Bilddaten gewonnenen HSI-Tripel (Farbinformation).
Gemäß einer weiteren Ausführungsform kann alternativ oder zusätzlich zu den oben beschriebenen Klassen eine Texturbeschreibung, die durch statistische Verfahren gewonnen wird, verwendet werden. Derartige Texturbeschreibungen sind beispielsweise der mittlere Grauwert, die Varianz der Grauwertverteilung, die Ko- varianzmatrix der Grauwertverteilung, die Entropie, die Orientierung der Grauwertstruktur, mittlere Skalen der Struktur in verschiedenen Richtungen, die Variationsbreite der lokalen Orientierung, die Variationsbreite der räumlichen Skalen, die Reihenfolge und die Anordnung verschiedener Strukturelemente.
Darüber hinaus, wiederum alternativ oder zusätzlich zu den oben beschriebenen Klassen werden in einer weiteren Ausführungsform Bewegungsvektoren (Verschiebungsvektoren) als Klasse definiert. Derartige Bewegungsvektoren lassen sich durch differentialgeometrische Methoden (differentielle Verfahren), Korrelationsverfahren und Filterverfahren aus zwei aufeinanderfolgenden Abbildungen berechnen. Darüber hinaus ist es auch möglich, Bewegungsvektoren aus zwei Gabor-Jets zu berechnen.
Neben den im Detail beschriebenen Ausführungsformen sind, in Abhängigkeit von dem Anwendungsgebiet, d.h. von der Struktur, der Qualität und der Komplexität des Inhalts der zu vergleichenden Bilddaten, eine Vielzahl von Kombinationsmöglichkeiten der oben beschriebenen Klassen möglich. So können insbesondere auch die Merkmale von lediglich einer der oben beschriebenen fünf Klassen zum Vergleich verwendet werden. Es ist insbesondere auch möglich, daß Merkmale, die aus Faltungen der Bilddaten mit einer ersten Filterklasse resultieren, die erste Klasse definieren, und Merkmale, die aus Faltungen der Bilddaten mit einer zweiten Filterklasse resultieren, die zweite Klasse definieren.
Im folgenden wird beschrieben, wie eine Abbildung mit einer Referenzabbildung verglichen wird. Hierbei bezieht sich das Präfix "Vergleichs-" jeweils auf die aufgenommene Abbildung, in der die Struktur oder das Objekt erkannt werden soll. Zunächst muß eine Referenzabbildung in Form eines Graphen, d.h. in Form eines Referenzgraphen, zur Verfügung gestellt werden. Dies kann beispielsweise durch Abrufen des Referenzgraphen aus einer zentralen Datenbank oder einer dezentralen Datenbank, beispielsweise von Chipkarten, geschehen.
Beim Erstellen der Datenbank wird dieser Referenzgraph G nach einem der oben beschriebenen Verfahren ermittelt. Im vorliegenden Fall wird demnach ein Gitter, wie es beispielsweise in Fig. 2 dargestellt ist, in die Referenzabbildung projiziert. An den Knotenpunkten des Gitters werden, wie ebenfalls bereits oben erläutert, die Jets ermittelt. Hierbei sollten die Jets der Referenzgraphen zumindest die Merkmalsklassen enthalten, die auch für den Vergleichgraphen ermittelt werden sollen.
Im nächsten Schritt projiziert man das Gitter der Referenzabbildung (Referenzgitter) in die Vergleichsabbildung und berechnet die diesem Gitter entsprechenden Jets für das Vergleichsbild. Hierbei sind zumindest teilweise Filterfunktioπen, d.h. dieselbe Klasse von Filterfunktionen, dieselben Größen und/oder dieselben Orientierungen, mit denen der Referenzgraph erstellt worden ist, zu verwenden. Die derart berechneten Jets bilden zusammen mit der Struktur des projizierten Gitters schließlich den Vergleichsgraphen G'.
Zur Projektion des Referenzgitters in die Vergleichsabbildung lassen sich in Abhängigkeit von den zu erwartenden Unterschieden zwischen Referenzabbildungen und Vergleichsabbildungen verschiedene Abbildungen einsetzen.
Die einfachste Projektion, nämlich eine Zentrierung des Referenzgitters in der Vergleichsabbildung, eignet sich beispielsweise, wenn Referenzabbildung und Vergleichsabbildung dieselbe Größe und Position in bezug auf das Bildzentrum haben und unter demselben Winkel aufgenommen worden sind. Zu dieser einfachen Projektion können wahlweise die folgenden Projektionen ausgeführt werden.
Eine Verschiebung des Refereπzgitter in seiner Gesamtheit:
Diese Abbildung eignet sich, wenn die Positionen von Referenzabbildung und
Vergleichsabbildung in bezug auf das Bildzentrum unterschiedlich sind.
Eine Skalierung des Referenzgitters:
Diese Abbildung kann vorgesehen werden, wenn die Größen von Referenzabbildung und Vergleichsabbildung unterschiedlich sind.
Eine Drehung des Referenzgitters:
Ein Drehung läßt sich in dem Fall einsetzen, in dem Referenzabbildung und
Vergleichsabbildung gegeneinander verdreht sind.
Eine lokale Verzerrung des Referenzgitters:
Bei dieser Abbildung werden jeweils einzelne Gitterpunkte gegenüber ihrer Position im Referenzgitter verschoben. Diese Abbildung eignet sich insbesondere, wenn zu erwarten ist, daß die Vergleichsabbildung gegenüber der Referenzabbildung lokale Verzerrungen aufweist.
Selbstverständlich sind auch beliebige Kombinationen der oben beschriebenen Projektionen möglich.
Die Bewertung der Ähnlichkeit beider Graphen, wird mittels einer Graphenvergleichsfunktion durchgeführt, die folgende allgemeine Form aufweist:
S = SJet + λSMetrik (6) SJet bezeichnet hierbei die Jetvergleichsfunktion, d.h. eine geeignete Funktion, welche die Ähnlichkeit der Jets an korrespondierenden Punkten der beiden Graphen bewertet, und SMetrιk bezeichnet eine geeignete Funktion, welche die Ähnlichkeit der Metrik der beiden Gitter miteinander vergleicht. SMβtπk hängt hierbei stark von der verwendeten Projektion ab.
λ ( λ > 0 ) bezeichnet die Gewichtung der beiden Vergleichsfunktion zueinander, λ kann auch gleich Null gesetzt werden; dies bedeutet, daß die Ähnlichkeit der Metrik der Graphen nicht berücksichtigt wird. Dieser Wert bietet sich insbesondere an, wenn lediglich Zentrierung oder Verschiebung als Projektion gewählt werden, oder anders ausgedrückt, wenn die Topologie von Referenzgraph und Vergleichsgraph identisch ist.
Zur Berechnung der Jetvergleichsfunktion SJet sind zunächst die Vergleichsfunktionen der Teiljets für die jeweiligen Klassen k zu berechnen. Im Fall der ersten Ausführungsform, deren Merkmale aus einer Faltung der Bilddaten und der im Farbraum segmentierten Bilddaten mit Gabor-Filtern resultieren, wäre k = 2.
Zur Bewertung der Ähnlichkeit zweier korrespondierender Teiljets jk und jk' der Jets j bzw. j' des Referenzgraphen G bzw. des Vergleichsgraphen G', wird eine Teiljetvergleichsfunktion verwendet, d.h. eine Funktion, die von den Amplituden a und a,' der beiden Teiljets abhängt und die folgende Form hat:
Figure imgf000027_0001
Die vorliegende Erfindung ist allerdings nicht auf diese Vergleichsfunktion beschränkt, es kann auch eine phasenempfindliche Vergleichsfunktion eingesetzt werden, beispielsweise mit folgender Form:
Figure imgf000028_0001
wobei kj der Wellenvektor der entsprechenden Gabor-Filter ist und d ein geschätzter Verschiebungsvektor ist, der schnelle Phasenverschiebungen kompensiert, d wird dadurch bestimmt, daß Sφ in seiner Taylorentwicklung inner¬
halb eines kleinen Quadrats, daß in d = 0 zentriert ist, maximiert wird. Der Term d-kj mit dem geschätzten Verschiebungsvektor d kompensiert schließlich schnelle Phasenverschiebungen aufgrund kleiner Variationen in den Positionen x und x' der zwei Jets, die miteinander verglichen werden.
aj(x) und φj(x) ergeben sich hierbei aus Jj(x) = aj(x)exp(iφj(x)) .
Aus den Teiljetvergleichsfunktionen für die einander entsprechenden Teiljets, also für die Merkmale einer Klasse, läßt sich eine Einzeljetvergleichsfunktion für entsprechende einzelne Jets bilden:
S(J, J' ) = Ω({Sk(jk, jk' )}) . (9) In Abhängigkeit von der Anwendung lassen sich verschiedene Funktionen Ω verwenden, beispielsweise
Ω({Sk(Jk,Jk')}) = ∑ωkSk(jk,jk'),oder (10) k
Ω({s„(jk. jk f)}) = π si(ik.iι«, )β,k . odθr (11) k
Figure imgf000029_0001
Ω({Sk(jk,jk')}) = min{ωkSk(jk,jk')} (13)
Sk(j .jk') sind hierbei die Teiljetvergleichsfunktionen, die sich gemäß der Gleichungen (7) oder (8) berechnen lassen; ωksind Wichtuπgskoeffizienten, die den Beitrag eines einzelnen Teiljets zu der Einzeljetvergleichsfunktion S(j, j' ) beschreiben.
Aus den Einzeljetvergleichsfunktionen für die einzelnen Jets wird schließlich die Jetvergleichsfunktion SJet für alle entsprechenden Jets eines Referenzgraphen G und eines Vergleichsgrapheπ G' gebildet. Hierzu können ebenfalls in Abhängigkeit von der Anwendung verschiedene Funktionen eingesetzt werden. Beispielsweise kann die Vergleichsfunktion für n Jets gebildet werden nach:
SJet(G,G') = ∑ωnSn(Jπ,Jn'),oder (14) n
SJβl(C3iCΪ) = π(Sn(Jn.Jπ,))"B. (15) n
Sn(Jn, Jn' ) sind hierbei die Einzeljetvergleichsfunktionen, die sich gemäß der Gleichungen (10) bis (13) berechnen lassen; ω.sind Wichtungskoeffizienten, die den Beitrag eines einzelnen Jets zu der Jetvergleichsfunktion SJel beschreiben.
Als Funktion zum Vergleichen der Metrik der beiden Graphen können beispielsweise die Beträge der Differenzvektoren zweier einander entsprechender Links, d.h. der Verbindungen zweier einander entsprechender Knoten, aufsummiert werden; für Graphen mit E Links, die mit Δxβ bzw. Δxe' bezeichnet werden, ergibt sich somit eine Metrikvergleichsfunktion:
SMe,πk(G, G' ) = ^∑(Δxe - Δxe)2. (16)
Welche der Vergleichsfunktionen im Detail verwendet und insbesondere welcher Faktor für λ gewählt wird, hängt im wesentlichen von der Struktur der Referenzgraphen und der Vergleichsgraphen, also letztendlich von der Struktur der Vergleichsabbildungen und der Referenzabbildungen, ab.
Die Auswahl der geeigneten Vergleichsfunktion für eine gegebene Struktur der Vergleichsabbildungen und der Referenzabbildungen kann hierbei durch Vergleichsversuche mit den Vergleichsabbildungen und den Referenzabbildungen ermittelt werden und liegt somit im Bereich des durchschnittlichen Könnens eines Fachmanns.
Mit Hilfe der Graphenvergleichsfunktion (6) kann nun der Vergleichsgraph an den Referenzgraphen optimal angepaßt werden. Hierzu wird die Projektion des Referenzgitters in die Vergleichsabbildung solange variiert, bis die Graphenvergleichsfunktion einen optimalen Wert (im Fall der oben beschriebenen Vergleichsfunktionen ist dies ein Minimum) annimmt. Mit der Vergleichsabbildung lassen sich selbstverständlich auch mehrere Referenzabbildungen vergleichen.
Diese Referenzabbildungen können in Form einer Datenbank vorliegen. In diesem Fall müssen dann allerdings bei jedem Vergleich die Referenzgraphen erneut berechnet werden.
Zweckmäßiger ist es deshalb, die Datenbank gleich in Form einer Referenzgraph-Datenbank vorzusehen, in denen die Referenzgitter mit ihren entsprechenden Jets gespeichert sind und lediglich abgerufen werden müssen. Allerdings ist eine solche Referenzgraph-Datenbank nicht so flexibel wie eine Refe- renzabbilduπgs-Datenbank, da diese für jede Änderung bei der Berechnung der Jets neu kompiliert werden muß.
Zum Vergleich der Vergleichsabbildung mit einer beliebigen Anzahl von Referenzabbildungen ermittelt man für die Vergleichsabbildung mit dem oben beschriebenen Verfahren die optimale Anpassung an jede Referenzabbildung und die Graphenvergleichsfunktion für diese optimale Anpassung.
Aufgrund eines Vergleichs der Graphenvergleichsfunktionen, die jeweils den besten Anpassungen der Referenzabbildungen an die Vergleichsabbildung entsprechen, kann die Referenzabbildung ermittelt werden, welche die größte Ähnlichkeit mit der Vergleichsabbildung aufweist.
Darüber hinaus kann durch Auswertung der Graphenvergleichsfunktionen für alle Referenzabbildungen ein Maß der Signifikanz der Ähnlichkeit ermittelt werden. Hierzu lassen sich, entsprechend dem erforderlichen Grad an Ähnlichkeit, verschiedene Definitionen für eine signifikante Erkennung verwenden. Beispielsweise können aus allen Graphenvergleichsfunktionen für die nicht optimalen Referenzgraphen der Mittelwert S und die Varianz σs gebildet werden. Eine signifikante Ähnlichkeit könnte dann angenommen werden, wenn
'opt > s (17)
oder
'opt > s (18) σs erfüllt ist, wobei s ein fest gewählter Parameter ist und S2 der zweitkleinste Wert aller Graphenvergleichsfunktionen ist.
In Fig. 4 ist eine weitere Ausführungsform der vorliegenden Erfindung dargestellt.
Diese Ausführungsform unterscheidet sich von den bisher beschriebenen Ausführungsformen durch den Aufbau der Referenzgraphen, die mit dem Vergleichsgraphen verglichen werden.
Während in den bisher beschriebenen Ausführungsformen ein Referenzgraph aus einer einzelnen Referenzabbildung erstellt worden ist, resultiert in dieser Ausführungsform ein Referenzbündelgraph aus mehreren Referenzabbildungen.
Hierzu werden aus M Abbildungen M Modellgraphen erstellt, die in einem sogenannten Referenzbündelgraph zusammengefaßt werden.
Alle M Modellgraphen haben qualitativ dieselbe Struktur, d.h. sie haben jeweils N Knoten, die durch ein vorbestimmtes Gitter miteinander verbunden sind. Hierbei ist es allerdings zulässig, daß die Längen zweier einander entsprechen- der Links unterschiedlich sind. Es ist demnach lediglich topologische Identität der Modellgraphen gefordert. Die Struktur des Gitters kann eine reguläre Form, wie hier gezeigt, oder ein irreguläre Form aufweisen.
Insbesondere können demnach die in den zuvor diskutierten Ausführungsformen eingesetzten Gitter, also ein reguläres nxm-Gitter oder ein irreguläres objektangepaßtes Gitter, verwendet werden.
Neben den Längen zweier entsprechender Links unterscheiden sich außerdem die einander entsprechenden Jets der M Modellgraphen.
Die M Modellgraphen werden schließlich, wie im folgenden erläutert, zu einem Bündelgraphen zusammengefaßt.
Zuerst werden die mittleren Entfernungsvektoren Δ-tl zwischen den Knoten i und j in dem Bündelgraphen ermittelt durch:
Figure imgf000033_0001
wobei Δ™ der Entfernungsvektor zwischen den Knoten i und j in dem Modellgraphen m ist.
Diese Entfernungsvektoren bestimmen nun die Struktur des Bündelgraphen, die zum Vergleich schließlich im folgenden in die Vergleichsabbildung projiziert wird. Den Knoten des Bündelgraphen werden außerdem noch Bündeljets der M Modellgraphen zugewiesen. Diese Bündeljets umfassen alle Teiljets, die bei der jeweiligen Erstellung der Referenzgraphen ermittelt worden sind. Demnach umfaßt ein Jet des Bündelgraphen die M einander entsprechenden Jets der M Modellgraphen. Anders ausgedrückt, ist ein Jet des Referenzbündelgraphen aus den Teiljets, die jeweils den Teiljets der Modellgraphen entsprechen, aufgebaut.
Die derart erhaltenen Struktur ist in Fig. 4 schematisch dargestellt. Mit G,,...^ sind hierin die M Modellgraphen bezeichnet, die zu dem Bündelgraphen BM 40 zusammengefaßt sind.
Zur Durchführung des Vergleichs werden die Bündeljets Teilbündeljets zugeordnet. Als Zuordnungskriterium lassen sich beispielsweise die Merkmalsklassen, die Referenzabbildungen oder Mischformen der beiden einsetzen. Bei einer Zuordnung nach Merkmalsklassen, umfassen die Teilbündeljets lediglich die Merkmale einer einzigen Merkmalsklasse.
Zum Vergleich eines auf diese Weise erhaltenen derart erhaltenen Bündelgraphen BM 40 mit einem aus einer Abbildung 42 resultierenden Vergleichsgraphen G' 45 wird gemäß dieser Ausführungsform eine zu Gleichung (6) analoge Bündelgraphenvergleichsfunktion verwendet.
Die Jetvergleichsfunktion SJet wird hierbei, wie im folgenden ausgeführt wird, bestimmt.
Zuerst wird eine Vergleichsfunktion zwischen einem Teiljets j' der Abbildung und den entsprechenden Teilbündeljets bM ermittelt. Hierbei können beispielsweise die folgenden, zu Gleichungen (10) bis (13) analogen Gleichungen verwendet werden:
S(bM,j,) = ∑ωnSn(Jn.J,).odθr (20) n
S(bM,j,) = π(Sn(Jn.J') .0der (21) n
S(bM,j') = max{ωnSn(J ,)}.oder (22)
= mjn{ωnSπ(tf..')} (23)
j' ist hierbei ein Teiljet der Abbildung und j^1 der entsprechende Teiibündeljet; die Sn(jn, j') bestimmen sich beispielsweise nach Gleichung (7) oder (8).
Die Vergleiche der Teiljets mit denTeilbündeljets stehen mit der Vergleichsfunti- on für den Jet J mit dem Bündelgraphen BMin funktionalem Zusammenhang Ω:
S(BM,J') = Ω(}Skl(bk,jl')})-:Ω(M). (24)
Die Funktion Ω kann hierbei nach folgender Rekursion ermittelt werden:
Ω(0) (M) = ∑ ω ,Ω[1) (M[1) ) , oder (25)
Ω(0)(M) = π(Ω[1)(M[1)))ω' , oder (26)
Ω(0) (M) = max{ω ,Ω<1) (M1) )} , oder (27)
Ω(0)(M) = min{ω,Ωf1)(M[))} , wobei (JM,1 = M> und (28) Ω(m-1) (M(m-1) ) = £ ω jΩ (M(m) ) _ oder 9)
1
Ω (m-D (M (D ) = τj (Ωjm) (Mjm) ))ω' , oder (30)
1
Ω[m-1)(M[m"1)) = max{ω ;m)(Mim))} , oder (31 )
Ωfm-1)(M m-1 ) = = Mf-1* . (32)
Figure imgf000036_0001
Die Rekursion kann, in Abhängigkeit von der Anwendung solange durchgeführt werden, bis für M(m) die folgende Bedingung erfüllt ist:
M(m)| = 1.
Aus den Vergleichsfunktionen für den Jet J mit dem Bündelgraphen BM für die einzelnen Jets wird schließlich die Jetvergleichsfunktion SJet für alle entsprechenden Jets eines Referenzbündelgraphen BM und eines Vergleichsgraphen G' gebildet. Hierzu können ebenfalls in Abhängigkeit von der Anwendung verschiedene Funktionen eingesetzt werden. Beispielsweise kann die Vergleichsfunktion für n Knoten gebildet werden nach:
SJet(BM G, ) = ∑ω nSn(Br , Jπ' ) , oder (33) π
SJet(BM G') = π(Sπ(Bn . Jn' ) - (34) n
Diese Vergleichsfunktion kann zur Ermittlung der Graphenvergleichsfunktion schließlich in Gleichung (6) eingesetzt werden. In Worten ausgedrückt, werden bei dem Vergleich des Bündelgraphen BM mit einem Vergleichsgraphen G also die Jets mit der maximalen Ähnlichkeit aus dem Bündelgraphen ausgewählt.
In Fig. 4 ist diese Tatsache dadurch dargestellt, daß Pfeile, die von dem entsprechenden Knoten des Vergleichsgraphen G ausgehen, an verschiedenen Modellgraphen enden.
Neben der oben angegebenen Bündelgraphenvergleichsfunktion lassen sich auch andere geeignete Vergleichsfunktionen einsetzen.
Wie bei einem Vergleich mit einem einzelnen Referenzgraphen, wird auch im Fall eines Büπdelgraphen dieser zuerst in die Abbildung des Vergleichsgraphen projiziert, und anschließend wird die optimale Projektion durch Auswertung der Bündelgraphenvergleichsfunktion bestimmt.
Da ein Bündelgraph wie ein einzelner Graph behandelt werden kann, ist es auch möglich, mehrere Refereπzbündelgraphen, einen Referenzbündelgraphen und einen oder mehrere Referenzgraphen in einer Datenbank, mit der die Vergleichsgraphen verglichen werden sollen, zusammenzufassen.
Unter Bezugnahme auf Fig. 4 und Fig. 5 wird im folgenden ein konkretes Beispiel einer Handstellungserkennung vor komplexem Hintergrund gemäß dem zuvor beschriebenen Verfahren, in dem Merkmale, die aus einer Faltung der Bilddaten mit Gabor-Filtern (Gabor-Merkmale), einer Faltung farbsegmentierter Bilddaten mit Gaborfiltern (Farbgabor-Merkmale) und aus der HSI-lnformation (HSI-Merkmal) resultieren, verwendet werden. Dieses Beispiel wird mit einem Erkennungsverfahren verglichen, in dem jeweils nur eine einzelne Klasse be- rücksichtigt ist, d.h. die entsprechenden Wichtungskoeffizienten ω k sind gleich Null.
In Fig. 5 sind die repräsentative Referenzabbildungen dargestellt, aus denen nach dem oben beschriebenen Verfahren Referenzgraphen erstellt worden sind. Jeder Referenzgraph umfaßt 15 Knoten und 20 Links bzw. Verbindungen. Die Knoten wurden manuell an anatomisch signifikanten Punkten verteilt.
In Fig. 6 sind verschiedene Beispiele einer Handstellung vor verschiedenen Hintergründen dargestellt. Insgesamt wurden 29 Hintergründe verwendet, von denen fünf ein hohes Maß an Hautfarbe, elf ein mittleres Maß an Hautfarbe und acht ein geringes Maß an Hautfarbe enthielten.
Mit diesen Hintergründen wurden 1000 verschiedene Vergleichsgraphen erstellt.
Aus den Referenzdaten wurden 18 Referenzgraphen für jede der in Fig. 5 dargestellten Handstellungen ermittelt, die Gabor-Merkmale oder Farbgabor- Merkmale oder HSI-lnformation enthalten haben. Für die Faltung wurden Gabor- Filter mit drei verschiedenen Größen und acht verschiedenen Richtungen verwendet.
Aus den jeweils 18 Referenzgraphen wurden drei Bündelgraphen mit jeweils sechs Modellen gebildet. Als Kriterium für die Zuordnung der Teiljets zu den Referenzgraphen wurden die Merkmale der Teiljets verwendet. Demnach enthielt der erste Referenzbündelgraph alle Gabor-Merkmale, der zweite Referenzbündelgraph alle Farbgabor-Merkmale und der dritte Referenzbündelgraph alle HSI-Merkmale. Bei der Projektion der Referenzbüπdelgraphen wurde eine Drehung bis zu 15°, eine Skalierung von bis zu 20% und eine lokale Verzerrung um maximal ein Pixel zugelassen.
Die Graphenvergleichsfunktion wurde mittels der Gleichungen (6; λ = 0 ), (33; mit gleichen ω n), (24), (25; mit ω Gabor = 0,25 , ω Farbgabor = 0,25 , ω HSI = 0.5 ), (33; mit gleichen ωn ), (8) für die Gabor- und Farbgabor-Merkmale und einem gewichte- ten euklid'schen Abstand für die HSI-Farbinformation berechnet.
Die Ergebnisse des Vergleichs der 1000 Vergleichsabbildungen ist in folgender Tabelle zusammengefaßt:
Gewichtung einfacher Hintergrund komplexer Hintergrund nur GaborMerkmale 82,6% 70,4% nur FarbgaborMerkmale 39,7% 34,6% nur HSIMerkmale 88,2% 76,3% optimale Wichtung 92,9% 85,8%

Claims

PATENTANSPRÜCHE
1. Ein Verfahren zum automatisierten Erkennen einer oder mehrerer Strukturen in digitalisierten Bilddaten, umfassend die Schritte:
Zurverfügungstellen wenigstens eines Referenzgraphen aus digitalisierten Referenzbilddaten entsprechender Referenzbilder, wobei der oder jeder Referenzgraph umfaßt:
eine netzartige Struktur, die jeweils dadurch definiert wird, daß bestimmten Referenzbilddaten Knoten, die durch Links in vorbestimmter Weise miteinander verbunden sind, zugewiesen werden, und
Jets, wobei jedem Knoten ein Jet zugeordnet ist und jeder Jet wenigstens einen Teiljet umfaßt, der durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentierten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Referenzbildern extrahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt wird, Ermitteln eines optimalen Bildgraphen aus den digitalisierten Bilddaten für jeden Referenzgraphen, wobei der optimale Bildgraph für einen bestimmten Referenzgraphen die optimale Anpassung an diesen darstellt und ermittelt wird durch:
Projizieren der netzartigen Struktur des bestimmten Referenzgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und
Ermitteln von Teiljets des Bildgraphen an den durch seine Struktur definierten Knoten, wobei die Teiljets mindestens einem Teil der ermittelten Teiljets des bestimmten Referenzgraphen entsprechen, und wobei
die Projektion der netzartigen Struktur des bestimmten Referenzgraphen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Jets des bestimmten Referenzgraphen vergleicht, optimal wird,
Zuordnen der oder jeder Struktur zu dem Referenzbild, das dem Referenzgraphen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermittelten optimalen Bildgraphen optimal ist.
2. Das Verfahren in Anspruch 1 , in welchem weiterhin
mehrere Referenzgraphen zur Verfügung gestellt werden, und
die Referenzgraphen, welche netzartige Strukturen aufweisen, die topologisch identisch sind, zu einem Referenzbündelgraphen zusammengefaßt werden, wobei der Referenzbündelgraph umfaßt: eine netzartige Struktur, die durch Knoten, welche den Knoten der Referenzgraphen entsprechen, und durch Links, die durch Mittelung der entsprechenden Links der Referenzgraphen ermittelt werden, definiert wird, und
Bündeljets, wobei jeder Bündeljet aus den Teiljets, die den Teiljets an den jeweiligen Knoten der in dem Referenzbündelgraphen zusammengefaßten Referenzgraphen entsprechen, zusammengesetzt wird;
und
ein optimaler Bildgraph für den oder jeden Referenzbündelgraphen ermittelt wird, wobei der optimale Bildgraph für einen bestimmten Referenzbündelgraphen die optimale Anpassung an diesen darstellt und ermittelt wird durch:
Projizieren der netzartigen Struktur des bestimmten Referenzbündelgraphen in die Bilddaten, wodurch die Struktur des Bildgraphen definiert wird, und
Ermitteln von Teiljets, die mindestens einem Teil der Teiljets entsprechen, die zur Ermittlung der Teiljets der dem bestimmten Referenzbündelgraphen zugrunde liegenden Refereπzgraphen verwendet worden sind, und wobei
die Projektion der netzartigen Struktur des bestimmten Referenzbündelgraphen, so lange variiert wird, bis eine Graphenvergleichsfunktion, welche die Jets des Bildgraphen mit den entsprechenden Bündeljets des bestimmten Referenzbündelgraphen vergleicht, optimal wird, wobei jeder Teiljet des Bildgraphen mit den Teiljets in dem entsprechenden Bündeljet des bestimmten Referenzbündelgraphen verglichen wird;
und in welchem schließlich
jede Struktur dem Referenzbild zugeordnet wird, das dem Referenzgraphen bzw. dem Refereπzgrapheπ aus dem oder den Referenzbündelgraphen entspricht, für den die Graphenvergleichsfunktion in Bezug auf den für ihn ermittelten optimalen Bildgraphen optimal ist.
Das Verfahren nach Anspruch 2, in welchen lediglich ein Teil der zur Verfügung gestellten Referenzgraphen zu einem oder zu mehreren Referenzbündelgraphen zusammengefaßt wird.
Das Verfahren nach Anspruch 2, in welchem alle zur Verfügung gestellten Referenzgraphen zu einem oder zu mehreren Referenzbündelgraphen zusammengefaßt werden.
Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem die Struktur der den Knoten zugeordneten Jets, die durch die Teiljets bestimmt ist, vom jeweiligen Knoten abhängig ist.
6. Das Verfahren nach einem der Ansprüche 1 bis 4, in welchem die Struktur der den Knoten zugeordneten Jets, die durch die Teiljets bestimmt ist, für alle Knoten identisch ist.
. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem eine Graphenvergleichsfunktion verwendet wird, die eine Jetvergleichsfunktion umfaßt, welche die Ähnlichkeit der einander entsprechenden Jets berücksichtigt.
Das Verfahren nach Anspruch 7, in welchem die Graphenvergleichsfunktion weiterhin eine Vergleichsfunktion für die netzartige Struktur umfaßt, welche die metrische Ähnlichkeit des Bildgraphen mit dem entsprechenden Referenzgraphen bzw. dem entsprechenden Referenzbündelgraphen berücksichtigt.
9. Das Verfahren nach Anspruch 8, in welchem die Graphenvergleichsfunktion als gewichtete Summe der Jetvergleichsfunktion und der Vergleichsfunktion für die netzartige Struktur definiert wird.
10. Das Verfahren nach einem der Ansprüche 7 bis 9, in welchem die Jetvergleichsfunktion als Funktion von Einzeljetvergleichsfunktionen einander entsprechender Jets definiert wird.
11. Das Verfahren nach Anspruch 10, in welchem die Jetvergleichsfunktion als gewichtete Summe aus den Einzeljetvergleichsfunktionen und/oder als gewichtetes Produkt aus den Einzeljetvergleichsfunktionen definiert wird.
2. Das Verfahren nach Anspruch 10 oder 11 , in welchem zur Ermittlung eines Einzeljetvergleichs Teiljets der entsprechenden Jets berücksichtigt werden, und eine Einzeljetvergleichsfunktion als Funktion von Teiljetvergleichsfunktionen definiert ist.
13. Das Verfahren nach Anspruch 12, in welchem die Einzeljetvergleichsfunktionen als gewichtete Summe der Teiljetvergleichsfunktionen und/oder als gewichtetes Produkt der Teiljetvergleichsfunktionen und/oder als Extremalwert der Teiljetvergleichsfunktionen definiert sind.
14. Das Verfahren nach einem der Ansprüche 7 bis 13, in welchem unterschiedliche, knotenabhängige Jetvergleichsfunktionen bzw. Einzeljetvergleichsfunktionen bzw. Teiljetvergleichsfunktionen verwendet werden.
15. Das Verfahren nach einem der Ansprüche 7 bis 9 in Verbindung mit Anspruch 2, in welchem die Bündeljets des Referenzbündelgraphen BM in Teilbündeljets b geteilt werden, und die Jetvergleichsfunktion zwischen den Teilbündeljets j des Referenzbündelgraphen und den entsprechenden Teiljets j,' des Bildgraphen G' für n Knoten für m Rekursionen gemäß folgender Formeln berechnet wird:
SJet(BM, G' ) = ∑ω nSπ(B Jn' ) . °der n SJe,(BM, G' ) = π(S n(B n . n' ) , WObei ωnein Wichtungsfaktor für den n-ten Knoten n ist und die Vergleichsfunktion Sn(B^, Jn') für den n-ten Knoten des Referenzbündelgraphen mit dem n-ten Knoten des Bildgraphen gegeben ist durch:
S(BM,J') = Ω({sk,(br,j,')})=:Ω(M),mit
Ω(0)(M) = ∑ω,Ω[1)(M1)),oder
Ω(0)(M) = π(Ω[1)(M[1)))ω',oder
I
Ω(0) (M) = max{ω ,Ω|) (M1) )} , oder
Ω(0)(M) = min{ω,Ω[1)(M[1))} , wobei (J 1) =
Ω(m-D (M(m-D ) = ^ ω pw (Mjm) ) , oder j
Ωm-1)(M1)) = π(Ω!m)(M!m)))ωι , oder
Ω (m-i) (M (m-D) = maxjω jm)(M5m))} , oder
Ω[m-1)(Mfm-1)) = min{ωJΩ<m)(M<,n))} , wobei (jMjm) = M[m-1) und mit
S(bM,j') = ∑ωnSn( ,J').oder n
S(bM,j') = π(Sn(J ,J') ,oder n
S(bM,j') = max{ωnSn(j^j')},oder
S(bM,j') = min{ωnSπ(JM')}-
6. Das Verfahren nach Anspruch 15, in welchem die Teilbündeljets des oder der Referenzbündelgraphen nur Merkmale enthalten, die durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit den Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Faltungen wenigstens einer Klasse von Filterfunktionen mit verschiedenen Größen und/oder Orientierungen mit farbsegmentierten Referenzbilddaten des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch Farbinformation über die Referenzbilddaten an dem bestimmten Knoten oder durch mit statistischen Verfahren gewonnenen Texturbeschreibungen des entsprechenden Referenzbildes an dem bestimmten Knoten oder durch aus zeitlich aufeinanderfolgenden Refereπzbildem extrahierten Bewegungsvektoren an dem bestimmten Knoten ermittelt worden sind.
17. Das Verfahren nach Anspruch 15, in welchem die Teilbündeljets des oder der Referenzbündelgraphen nur Merkmale enthalten, die aus einem Referenzgraphen resultieren.
18. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem nach dem Erkennen jeder Struktur ein Schritt zur Ermittlung der Signifikanz des Erkenneπs vorgesehen ist.
19. Das Verfahren nach Anspruch 18, in welchem zur Ermittlung der Signifikanz ein Schätzer verwendet wird, der sowohl die optimale Graphenvergleichs- funktion als auch die nicht optimalen Graphenvergleichsfunktionen berücksichtigt.
20. Das Verfahren nach Anspruch 19, in welchem der Abstand der Werte der nicht optimalen Graphenvergleichsfunktionen von dem Wert der optimalen Graphenvergleichsfunktion als Schätzer verwendet wird.
21. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem weiterhin jede Struktur den Referenzbildern zugeordnet wird, die den Referenzgraphen bzw. den Referenzgraphen aus den Referenzbündelgraphen entsprechen, für die die Werte der Graphenvergleichsfunktionen in einem vorbestimmten Bereich liegen.
22. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem die Farbinformation aus den Referenzbilddaten bzw. den Bilddaten ermittelte Farbtonwerte und/oder Farbsättigungswerte und/oder Heliigkeitswerte umfaßt.
23. Das Verfahren nach einem der Ansprüche 1 bis 22, in welchem der Schritt des Zurverfügungstellens der Referenzgraphen bzw. der Referenzbüπdelgra- phen das Abrufen der Referenzgrapheπ bzw. der Referenzbündelgraphen aus einer zentralen und/oder dezentralen Datenbank umfaßt.
24. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem als netzartige Struktur des Refereπzgraphen ein regelmäßiges Gitter verwendet wird, dessen Knoten und Links rechtwinklige Maschen bilden.
25. Das Verfahren nach einem der Ansprüche 1 bis 23, in welchem als netzartige Struktur des Referenzgraphen ein unregelmäßiges Gitter verwendet wird, dessen Knoten und Links an die zu erkennende Struktur angepaßt sind.
26. Das Verfahren nach Anspruch 25, in welchem die Knoten charakteristischen Punkten, sogenannten Landmarken, der zu erkennenden Struktur zugeordnet werden.
27. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem als Klasse der Filterfunktionen zur Faltung mit den Referenzbilddaten bzw. Bilddaten Gabor-Filterfunktionen und/oder Mallat-Filterfunktionen verwendet werden.
28. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem als Klasse der Filterfunktionen zur Faltung mit den farbsegmentierten Referenzbilddaten bzw. Bilddaten Gabor-Filterfunktioneπ und/oder Mallat-Filterfunktionen verwendet werden.
29. Das Verfahren nach einem der vorangegangenen Ansprüche, in welchem die Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbündelgraphen eine Zentrierung des Referenzgraphen bzw. des bestimmten Referenzbündelgraphen in der Abbildung umfaßt.
30. Das Verfahren nach Anspruch 29, in welchem die Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbündelgraphen eine Verschiebung und/oder Drehung des zentrierten Referenzgraphen bzw. des zentrierten Referenzbündelgraphen umfaßt.
31. Das Verfahren nach Anspruch 29 oder 30, in welchem die Projektion der netzartigen Struktur des bestimmten Referenzgraphen bzw. des bestimmten Referenzbündelgraphen eine Skalierung des zentrierten Referenzgraphen bzw. des zentrierten Referenzbündelgraphen umfaßt.
32. Das Verfahren nach Anspruch 31 in Verbindung mit Anspruch 30, in welchem die Verschiebung und die Skalierung und die Drehung des zentrierten Referenzgraphen bzw. des zentrierten Referenzbündelgraphen simultan durchgeführt werden.
33. Das Verfahren nach einem der Ansprüche 29 bis 32, in welchem die Projektion der netzartigen Struktur lokale Verzerrungen des zentrierten Referenzgraphen umfaßt.
34. Das Verfahren nach Anspruch 33, in welchem eine lokale Verzerrung durch lokale Verschiebung eines entsprechenden Knoten des zentrierten Referenzgraphen bewirkt wird.
35. Das Verfahren nach einem der Ansprüche 30 bis 34, in welchem die Verschiebung bzw. die Skalierung bzw. die Drehung aus dem Vergleich des Bildgraphen mit dem entsprechenden Referenzgraphen bzw. dem entsprechenden Referenzbündelgraphen ermittelt wird.
PCT/EP1999/005946 1998-08-14 1999-08-13 Verfahren zum erkennen von objekten in digitalisierten abbildungen WO2000010119A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US09/762,806 US7113641B1 (en) 1998-08-14 1999-08-13 Method for recognizing objects in digitized images
AU58519/99A AU5851999A (en) 1998-08-14 1999-08-13 Method for recognizing objects in digitized images
EP99945979A EP1104570A1 (de) 1998-08-14 1999-08-13 Verfahren zum erkennen von objekten in digitalisierten abbildungen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19837004.0 1998-08-14
DE19837004A DE19837004C1 (de) 1998-08-14 1998-08-14 Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen

Publications (1)

Publication Number Publication Date
WO2000010119A1 true WO2000010119A1 (de) 2000-02-24

Family

ID=7877611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP1999/005946 WO2000010119A1 (de) 1998-08-14 1999-08-13 Verfahren zum erkennen von objekten in digitalisierten abbildungen

Country Status (5)

Country Link
US (1) US7113641B1 (de)
EP (1) EP1104570A1 (de)
AU (1) AU5851999A (de)
DE (1) DE19837004C1 (de)
WO (1) WO2000010119A1 (de)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10022570A1 (de) * 2000-05-09 2001-11-15 Giesecke & Devrient Gmbh Verfahren und System zur Generierung eines Schlüsseldatensatzes
DE50102061D1 (de) * 2001-08-01 2004-05-27 Zn Vision Technologies Ag Hierarchische Bildmodellanpassung
GB2384095B (en) * 2001-12-10 2004-04-28 Cybula Ltd Image recognition
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7689043B2 (en) * 2003-10-09 2010-03-30 University Of York Image recognition
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US7804983B2 (en) * 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
DE602007012246D1 (de) 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
WO2008015586A2 (en) 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
DE602008001607D1 (de) 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
EP2123008A4 (de) 2007-03-05 2011-03-16 Tessera Tech Ireland Ltd Gesichtskategorisierungs- und anmerkungssystem für eine mobiltelefon-kontaktliste
WO2008107002A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face searching and detection in a digital image acquisition device
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US20090200467A1 (en) * 2008-02-12 2009-08-13 Gray Paul C Automatic image-based volumetric detection of an object in a space
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
KR101633198B1 (ko) * 2011-12-28 2016-06-23 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 객체 맥락적 정보의 분류 방지
US9036044B1 (en) * 2013-07-22 2015-05-19 Google Inc. Adjusting camera parameters associated with a plurality of images
CN105095923B (zh) * 2014-05-21 2018-09-11 华为技术有限公司 一种图像处理方法及装置
EP3564847A1 (de) 2018-05-02 2019-11-06 IDEMIA Identity & Security Germany AG Objektidentifikation
EP3570207B1 (de) 2018-05-15 2023-08-16 IDEMIA Identity & Security Germany AG Videocookies
ES2851875A1 (es) * 2020-03-06 2021-09-09 Univ Granada Sistema de análisis de imágenes para la comparación facial forense

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4406020C1 (de) * 1994-02-24 1995-06-29 Zentrum Fuer Neuroinformatik G Verfahren zur automatisierten Erkennung von Objekten

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222939B1 (en) * 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
DE19726226C2 (de) * 1997-06-22 2001-07-26 Zentrum Fuer Neuroinformatik G Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
EP1072018B1 (de) * 1998-04-13 2003-08-27 Eyematic Interfaces, Inc. Wavelet-basierte gesichtsbewegungserfassung für avataranimation
US6714661B2 (en) * 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US6580821B1 (en) * 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4406020C1 (de) * 1994-02-24 1995-06-29 Zentrum Fuer Neuroinformatik G Verfahren zur automatisierten Erkennung von Objekten

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WISKOTT L ET AL: "FACE RECOGNITION BY ELASTIC BUNCH GRAPH MATCHING", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,US,IEEE INC. NEW YORK, vol. 19, no. 7, pages 775 - 779, XP000698176, ISSN: 0162-8828 *

Also Published As

Publication number Publication date
DE19837004C1 (de) 2000-03-09
US7113641B1 (en) 2006-09-26
AU5851999A (en) 2000-03-06
EP1104570A1 (de) 2001-06-06

Similar Documents

Publication Publication Date Title
DE19837004C1 (de) Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
DE69324207T2 (de) Bildgruppierungsvorrichtung
DE69026329T2 (de) Entrasterung von gespeicherten digitalen Halbtonbildern durch logisches Filtrieren
DE69624758T2 (de) Bildsegmentierungssystem und -verfahren
EP0721631B1 (de) Verfahren zur segmentation von digitalen farbbildern
DE4406020C1 (de) Verfahren zur automatisierten Erkennung von Objekten
EP0560779B1 (de) Verfahren zur erkennung und schätzung der räumlichen lage von objekten aus einer zweidimensionalen abbildung
EP1316057B1 (de) Auswerten von kantenrichtungsinformation
DE19634768A1 (de) Vorrichtung und Verfahren zur Erfassung eines Gesichts in einem Videobild
DE60020887T2 (de) Optischer fluss und bildaufbau
DE102007040070B4 (de) Bilddichteumwandlungsverfahren, Bildverbesserungsverarbeitungseinrichtung und dafür geeignetes Programm
DE69612284T2 (de) Datenverarbeitungsverfahren- und vorrichtung
WO2008034599A2 (de) Verfahren und vorrichtung zur bildverarbeitung
DE3923914A1 (de) Verfahren zum extrahieren eines zeichenmerkmals
DE69008637T2 (de) Iteratives Bewegungsabschätzungsverfahren zwischen einem Referenzbild und einem aktuellen Bild, und Verfahren zu ihrer Herstellung.
EP0394959A2 (de) Verfahren zur Bildauswertung
EP1282070B1 (de) Hierarchische Bildmodellanpassung
EP1525442B1 (de) Verfahren zur analyse von farbabweichungen von bildern mit einem bildsensor
DE69322216T2 (de) Verfahren und Gerät zur graphischen Mustererzeugung
DE19754909A1 (de) Verfahren und Vorrichtung zur Erfassung und Bearbeitung von Abbildungen biologischen Gewebes
DE19834718C2 (de) Digitale Bildverarbeitung für ein Qualitätskontrollsystem
DE19726226C2 (de) Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe
DE60030528T2 (de) Verfahren und Vorrichtung zur Farbquantelung
AT505885B1 (de) Verfahren zum ähnlichkeitsvergleich von zwei gegenständen
DE10126375B4 (de) Verfahren und System zur Erkennung von Objekten

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AL AM AT AU AZ BA BB BG BR BY CA CH CN CR CU CZ DK DM EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MD MG MK MN MW MX NO NZ PL PT RO RU SD SE SG SI SK SL TJ TM TR TT UA UG US UZ VN YU ZA ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW SD SL SZ UG ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE BF BJ CF CG CI CM GA GN GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 1999945979

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1999945979

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 09762806

Country of ref document: US

WWW Wipo information: withdrawn in national office

Ref document number: 1999945979

Country of ref document: EP